CN104766270B - 一种基于鱼眼镜头的虚实光照融合方法 - Google Patents

一种基于鱼眼镜头的虚实光照融合方法 Download PDF

Info

Publication number
CN104766270B
CN104766270B CN201510124545.8A CN201510124545A CN104766270B CN 104766270 B CN104766270 B CN 104766270B CN 201510124545 A CN201510124545 A CN 201510124545A CN 104766270 B CN104766270 B CN 104766270B
Authority
CN
China
Prior art keywords
fish
light source
eye lens
source region
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510124545.8A
Other languages
English (en)
Other versions
CN104766270A (zh
Inventor
刘越
刘万奎
闫达远
常军
翁冬冬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201510124545.8A priority Critical patent/CN104766270B/zh
Publication of CN104766270A publication Critical patent/CN104766270A/zh
Application granted granted Critical
Publication of CN104766270B publication Critical patent/CN104766270B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于鱼眼镜头的虚实光照融合方法,它主要包括以下几个步骤:首先将鱼眼镜头相机放置于场景空间中虚拟物体的位置上,用鱼眼镜头相机拍摄场景中的实时动态光照环境;然后由鱼眼镜头图像利用图像处理计算真实场景中的光源方向,再将鱼眼镜头图像转化为YUV空间,根据光源强度计算公式计算光源强度;最后利用计算出来的光源信息,采用GPU加速渲染虚拟物体,实现具有真实场景光照的实时增强现实应用,实现了快速高效的场景光照获取。

Description

一种基于鱼眼镜头的虚实光照融合方法
技术领域
本发明涉及计算机图像处理与增强现实技术领域,尤其涉及一种基于鱼眼镜头的虚实光照融合方法。
背景技术
增强现实技术将虚拟的三维物体、视频、文字、图片等计算机生成的信息实时叠加显示到真实场景中,通过虚实融合实现自然的人机交互,在医疗卫生、军事仿真、工业维修、教育娱乐等行业具有广泛的应用前景。高度真实感的增强现实效果主要体现在几何一致、光照一致和时间一致等三个方面。其中几何一致指计算机生成的虚拟物体应与真实物体保持准确、稳定的位置关系;光照一致指虚拟物体应与真实环境之间有正确的光照匹配关系;时间一致指虚拟物体与真实物体实现实时交互。随着系统硬件设备与软件跟踪算法的快速发展,目前几何一致与时间一致的研究已经比较成熟,但光照一致的研究仍然面临着诸多难题。
典型的基于光学跟踪的增强现实处理流程输入为真实场景和系统创建的虚拟三维物体,每一帧的处理流程都包含跟踪真实物体、估计真实场景的光照、生成虚拟物体、渲染光照效果等部分,最终输出虚实融合的合成场景。合成场景的真实性主要由真实场景光照的估计、光照渲染以及虚拟物体生成的质量来决定的。在实际研究过程中,复杂的动态光照环境估计、阴影的真实性渲染、物体的表面材质属性估计、不同光照效果的渲染(模糊、焦散、高光等)等都是增强现实光照一致性研究面临的技术挑战和亟待解决的关键问题,其中光照估计是光照一致性的重要先决条件,只有成功估计出真实环境的光照才能够产生高度真实感的渲染效果。最近几年的光照一致性研究按照研究手段将已有研究分为借助辅助标志物的方法、借助辅助拍摄设备的方法和无需辅助标志或拍摄设备的图像分析方法三类。其中辅助标志物指放在场景中的一些特殊物体,用来捕获真实场景中的光照信息或通过分析其阴影推测光源方向等。辅助拍摄设备主要指深度相机、鱼眼镜头相机以及光场相机等特殊拍摄设备,借助这些辅助设备能够获得深度、全视角场景、光场等信息,进而可以更加方便地计算场景中的光照情况。图像分析方法运用机器学习、图像处理等相关技术分析真实场景的光照情况,不需要借助多余的硬件设备,是近年来光照估计领域的重要发展方向。
借助辅助标志物的方法比如1998年美国南加州大学的Debevec参见(DebevecP.Rendering synthetic objects into real scenes:Bridg-ing traditional andimage-based graphics with global illumination and high dynamic rangephotography[C]//ACM SIGGRAPH 1998classes.FL:ACM,1998:32.)首先提出采用不同曝光时间拍摄多幅镜面小球图像、通过组合这些图片制作高动态范围(High-Dynamic Range,HDR)环境光测图的方法,该方法在估算出局部场景的双向反射分布函数(BidirectionalReflectance Distribu-tion Function,BRDF)后,将光测图映射到场景虚拟物体上,最终使用差分渲染提高渲染的效果,如图5(a)所示,该方法可以实现逼真的合成图像,但是缺点是需要大量的预处理操作,无法实现实时交互。
借助辅助拍摄设备的方法比如2007年,丹麦奥尔堡大学的Madsen等(参见MadsenC,Laursen R.A scalable GPU-based approach to shad-ing and shadowing forphoto-realistic real-time augmented reali-ty[C]//International Conference onComputer Graphics Theory and Applications.Barcelona,2007:252-261.)提出使用HDR相机拍摄HDR图像的方法,通过结合阴影图渲染并利用GPU加速渲染过程,实现了虚实场景的实时交互,但是该方法由于在给定位置离线拍摄用于渲染所有虚拟物体的HDR环境贴图,所以只适合于光照不变的环境。
无需辅助标志或拍摄设备的图像分析方法比如布,算法收敛后可得到光照条件的估计。2014年Metaio公司的Knorr等(参见Knorr S B,Kurz D.Real-time illuminationestimation from faces for coherent rendering[C]//2014IEEE InternationalSymposium on Mixed and Augmented Reality(ISMAR),Germany:IEEE,2014:113-122.)提出的方法中同样先根据人脸数据库离线训练得到一个基于球谐波函数的辐射度传递函数(RTF,radiance transfer function),然后将用户的人脸图像作为在线阶段的输入图像来估计光照情况。尽管该类方法通过在线计算可以实现比较有效的光照估计,但其缺点是需要大量的离线计算。
发明内容
有鉴于此,本发明提供了一种基于鱼眼镜头的虚实光照融合方法,通过使用鱼眼镜头就可以完成对真实场景的光源分布估计并完成虚实融合,快速逼真的实现虚实融合环境。
一种基于鱼眼镜头的虚实光照融合方法,包括如下步骤:
步骤1、在真实场景中,在未来放置虚拟物体的位置处放置鱼眼镜头相机;其中,所述鱼眼镜头相机的半球形拍摄空间内包括真实场景中的所有光源;以鱼眼镜头中心为原点O,过原点O且沿鱼眼镜头朝向方向为Z轴;过原点与Z轴垂直的平面XOY为鱼眼镜头相机的像平面所在平面;
步骤2、首先调整鱼眼镜头的光圈,使得采集图像中可以区分光源和背景图像;然后控制鱼眼镜头相机拍照;在获得的图像中提取:各个所述光源的光源区域,光源区域内各像素点的灰度值以及光源区域的重心在平面XOY上的坐标;
步骤3、将各光源区域重心向所述鱼眼镜头相机的半球形拍摄空间的球面上进行投影,确定对应光源发出光线与所述球面的交点,所述交点与所述原点O的连线方向即为该光源的方向;
步骤4、根据步骤3获得的各光源方向以及步骤2中光源区域内各像素点的灰度值,确定各光源发光面垂直方向上的发光强度L0其中,Yi表示本光源区域内第i个像素点的亮度值,i=1,2,...,N,N为本光源区域内像素点数量;Yi=0.2991r+0.587g+0.114b,r、g和b分别为本光源区域内第i个像素点在RGB空间的R、G和B通道的值;f为所述鱼眼镜头相机响应函数;为步骤3中光源的方向与所述Z轴的夹角;K为附加光源亮度衰减系数;
步骤5、根据步骤4得到的各光源发光面垂直方向上的发光强度L0以及步骤3得到的各光源方向,结合所述虚拟物体表面反射系数,采用光照模型进行增强现实渲染,则实现了光照虚实融合。
较佳的,所述步骤1中,将真实场景所在的真实世界坐标系与虚拟物体所在的虚拟世界坐标系进行统一,使真实世界坐标系与虚拟世界坐标系重合。
较佳的,在步骤2中,在鱼眼镜头相机拍摄前,先使用计算机视觉工具包对鱼眼镜头相机进行标定。
较佳的,所述步骤2中,采用边缘提取法确定光源区域。
较佳的,所述步骤5中,采用GPU加速渲染实现增强现实的实时显示。
本发明具有如下有益效果:
(1)本发明提出的基于鱼眼镜头的光照虚实融合方法,该方法无需预先在场景中设置任何辅助标志物,仅通过设置鱼眼镜头相机拍摄场景图像,根据图像中光源的位置和光强信息即可估计出真实场景中的光源分布和光源亮度,因此该方法具有简单、快捷的特点。
(2)本发明在图像处理与虚拟物体渲染中采用GPU加速,有效提高了光照估计的效率以及准确性,提高了实时性。
附图说明
图1为本发明中鱼眼镜头相机拍摄空间坐标系图。
图2本发明的基于鱼眼镜头的虚实光照融合方法流程图。
图3为是本发明的真实环境光源提取算法。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明的一种基于鱼眼镜头的虚实光照融合方法,如图2所示,包括如下步骤:
步骤1,在真实场景中,在未来放置虚拟物体的位置处放置鱼眼镜头相机;其中,相机的半球形拍摄空间内包括真实场景中的所有光源;如图1所示,以鱼眼镜头中心为原点O,过原点O且沿鱼眼镜头朝向方向为Z轴;过原点与Z轴垂直的平面XOY为鱼眼镜头的像平面所在平面;
本发明中,为了保证真实场景光源估计的准确度以及降低运算量,将真实场景的全局世界坐标系和虚拟物体的虚拟世界坐标系进行统一,使两者重合。
步骤2,使用计算机视觉工具包对鱼眼镜头相机进行标定,通过棋盘格图像标定相机的焦距、光心偏移等内部参数和旋转、平移等外部参数。调整鱼眼镜头的光圈,使得采集图像中可以区分光源和背景图像;然后控制鱼眼镜头相机拍照,获得图像;在图像中提取各个所述光源的图像区域,确定光源区域的重心在平面XOY的坐标;
其中,获得光源区域的具体方法为:按照如图2所示流程进行图像处理操作,注意这里提到的边缘提取应不限于现有常见的边缘处理算法,如canny边缘检测,sobel算子边缘检测等方法,以边缘提取的封闭边界内区域为光源区域。
以光源区域重心代表光源的图像坐标,光源区域重心的计算方法为:重心利用不规则区域的矩来计算,其中矩表示把一个归一化的灰度级图像函数理解为一个二维随机变量的概率密度。光源区域的重心可由公式计算,其公式为X=M10/M00;Y=M01/M00。其中均为图像矩,M00为区域的零阶矩,对于二值图像其实就是图像区域的面积,M01、M10均为图像区域的一阶矩,i、j分别表示光源区域中的所有点的x、y坐标,f(i,j)表示图像的灰度分布。
步骤3,将各光源区域重心向半球形拍摄空间的球面上进行投影,确定对应光源发出光线与所述球面的交点,交点与所述原点O的连线方向即为该光源的方向,具体方法为:
如图1所示,以图像半径R构建鱼眼镜头拍摄空间。真实世界一点P,对应图像中的位置为Pt点,相交于球面与Ps点,P坐标为(X,Y,Z)极坐标表示为Pt的图像坐标为(μ,υ),图像中心O点的图像坐标为(μ0,υ0),这样对于球上一点Ps的图像坐标与角度的关系可以用如下公式表示:
将真实世界的光源设定为方向光源,故此只需知道θ、的值即可确定光源的方向。通过计算可得到:
步骤4、获得光源区域平均光强的具体方法为:由于只关注光源的亮度信息,故此将鱼眼镜头图像由RGB空间转换到YUV空间,计算所取光源的Y值,其中RGB到YUV按照如下关系转换:
Y=0.2991r+0.587g+0.114b
其中,r、g和b分别为各像素点在RGB空间的R、G和B通道的值;
根据朗伯体表面模型,朗伯光源在某一方向上的发光强度等于该光源发光面垂直方向上的发光强度L0乘以方向角的余弦,则鱼眼镜头相机接收到的各光源的光照度L可以得到:
考虑相机响应函数f,该响应函数由预计算的相机标定完成。该光源在图像中的亮度显示为:
I=fL
假设N为某光源区域像素的个数,可以得到该光源区域的平均亮度I0:
Yi表示光源区域内第i个像素点的亮度值;
将光源在图像中显示的亮度与光源区域的平均亮度联立相等,则得到光源发光面垂直方向上的发光强度L0
附加光源亮度衰减系数K,代表空气传播、光电转换等光源能量的衰减损失因子,该系数为未知系数,采取经验设定。
步骤5、由得到的光源方向和光源发光面垂直方向上的发光强度L0,给定虚拟物体表面反射系数,由光照模型,这里不局限于任何已知的光照模型,绘制虚拟物体。使用GPU加速,完成增强现实的实时显示,可以实现快速准确的光照模拟结果,达到较好地光照虚实融合。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于鱼眼镜头的虚实光照融合方法,其特征在于,包括如下步骤:
步骤1、在真实场景中,在未来放置虚拟物体的位置处放置鱼眼镜头相机;其中,所述鱼眼镜头相机的半球形拍摄空间内包括真实场景中的所有光源;以鱼眼镜头中心为原点O,过原点O且沿鱼眼镜头朝向方向为Z轴;过原点与Z轴垂直的平面XOY为鱼眼镜头相机的像平面所在平面;
步骤2、首先调整鱼眼镜头的光圈,使得采集图像中可以区分光源和背景图像;然后控制鱼眼镜头相机拍照;在获得的图像中提取:各个所述光源的光源区域,光源区域内各像素点的灰度值以及光源区域的重心在平面XOY上的坐标;
步骤3、将各光源区域重心向所述鱼眼镜头相机的半球形拍摄空间的球面上进行投影,确定对应光源发出光线与所述球面的交点,所述交点与所述原点O的连线方向即为该光源的方向;
步骤4、根据步骤3获得的各光源方向以及步骤2中光源区域内各像素点的灰度值,确定各光源发光面垂直方向上的发光强度L0其中,Yi表示本光源区域内第i个像素点的亮度值,i=1,2,...,N,N为本光源区域内像素点数量;Yi=0.2991r+0.587g+0.114b,r、g和b分别为本光源区域内第i个像素点在RGB空间的R、G和B通道的值;f为所述鱼眼镜头相机响应函数;为步骤3中光源的方向与所述Z轴的夹角;K为附加光源亮度衰减系数;
步骤5、根据步骤4得到的各光源发光面垂直方向上的发光强度L0以及步骤3得到的各光源方向,结合所述虚拟物体表面反射系数,采用光照模型进行增强现实渲染,则实现了光照虚实融合。
2.如权利要求1所述的一种基于鱼眼镜头的虚实光照融合方法,其特征在于,所述步骤1中,将真实场景所在的真实世界坐标系与虚拟物体所在的虚拟世界坐标系进行统一,使真实世界坐标系与虚拟世界坐标系重合。
3.如权利要求1所述的一种基于鱼眼镜头的虚实光照融合方法,其特征在于,在步骤2中,在鱼眼镜头相机拍摄前,先使用计算机视觉工具包对鱼眼镜头相机进行标定。
4.如权利要求1所述的一种基于鱼眼镜头的虚实光照融合方法,其特征在于,所述步骤2中,采用边缘提取法确定光源区域。
5.如权利要求1所述的一种基于鱼眼镜头的虚实光照融合方法,其特征在于,所述步骤5中,采用GPU加速渲染实现增强现实的实时显示。
CN201510124545.8A 2015-03-20 2015-03-20 一种基于鱼眼镜头的虚实光照融合方法 Active CN104766270B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510124545.8A CN104766270B (zh) 2015-03-20 2015-03-20 一种基于鱼眼镜头的虚实光照融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510124545.8A CN104766270B (zh) 2015-03-20 2015-03-20 一种基于鱼眼镜头的虚实光照融合方法

Publications (2)

Publication Number Publication Date
CN104766270A CN104766270A (zh) 2015-07-08
CN104766270B true CN104766270B (zh) 2017-10-03

Family

ID=53648082

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510124545.8A Active CN104766270B (zh) 2015-03-20 2015-03-20 一种基于鱼眼镜头的虚实光照融合方法

Country Status (1)

Country Link
CN (1) CN104766270B (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10134198B2 (en) 2016-04-19 2018-11-20 Adobe Systems Incorporated Image compensation for an occluding direct-view augmented reality system
CN107808409B (zh) * 2016-09-07 2022-04-12 中兴通讯股份有限公司 一种增强现实中进行光照渲染的方法、装置及移动终端
CN106652013A (zh) * 2016-12-06 2017-05-10 广州视源电子科技股份有限公司 图像处理方法及系统
CN107134005A (zh) * 2017-05-04 2017-09-05 网易(杭州)网络有限公司 光照适配方法、装置、存储介质、处理器及终端
EP3631769A1 (en) * 2017-05-31 2020-04-08 PCMS Holdings, Inc. Apparatus and methods for dynamic white point compensation to improve perceived color of synthetic content
CN107527327B (zh) * 2017-08-23 2018-05-15 珠海安联锐视科技股份有限公司 一种基于gpu的鱼眼校正方法
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
US10636200B2 (en) * 2018-01-19 2020-04-28 Htc Corporation Electronic device, method for displaying an augmented reality scene and non-transitory computer-readable medium
CN108509887A (zh) * 2018-03-26 2018-09-07 深圳超多维科技有限公司 一种获取环境光照信息方法、装置和电子设备
CN109883414B (zh) * 2019-03-20 2021-08-27 百度在线网络技术(北京)有限公司 一种车辆导航方法、装置、电子设备及存储介质
CN110033423B (zh) * 2019-04-16 2020-08-28 北京字节跳动网络技术有限公司 用于处理图像的方法和装置
CN110738724B (zh) * 2019-09-06 2024-05-31 惠州市德赛西威汽车电子股份有限公司 一种自动调整车模光照效果的方法及其系统
EP3859684A1 (en) * 2020-01-30 2021-08-04 Toyota Jidosha Kabushiki Kaisha Method and system for building a lighting adaptable map of an indoor scene and using it for estimating an unknown light setting
CN111724485B (zh) * 2020-06-11 2024-06-07 浙江商汤科技开发有限公司 实现虚实融合的方法、装置、电子设备及存储介质
CN111710049B (zh) * 2020-06-18 2022-07-12 三星电子(中国)研发中心 Ar场景中的环境光照确定方法和装置
CN113074657B (zh) * 2021-03-16 2022-02-01 华中科技大学 一种基于虚拟平面采样的三坐标相位映射表标定方法
CN115631291B (zh) * 2022-11-18 2023-03-10 如你所视(北京)科技有限公司 用于增强现实的实时重光照方法和装置、设备和介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102096941A (zh) * 2011-01-30 2011-06-15 北京航空航天大学 虚实融合环境下的光照一致性方法
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102175613B (zh) * 2011-01-26 2012-11-14 南京大学 基于图像亮度特征的ptz视频能见度检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102096941A (zh) * 2011-01-30 2011-06-15 北京航空航天大学 虚实融合环境下的光照一致性方法
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
增强现实中虚实光照一致性研究综述;王珂;《光电技术应用》;20131231;第28卷(第6期);第6-12页 *
复杂环境光源下虚实融合光照实时计算_;王贞东等;《中国图象图形学报》;20091031;第14卷(第10期);第2118-2121页 *

Also Published As

Publication number Publication date
CN104766270A (zh) 2015-07-08

Similar Documents

Publication Publication Date Title
CN104766270B (zh) 一种基于鱼眼镜头的虚实光照融合方法
US20180012411A1 (en) Augmented Reality Methods and Devices
JP6246757B2 (ja) 現実環境の視野におけるバーチャルオブジェクトを表現方法及びシステム
EP2824923B1 (en) Apparatus, system and method for projecting images onto predefined portions of objects
KR102268377B1 (ko) 멀티-뷰 컨텐츠를 전달하기 위한 디스플레이 시스템 및 방법
Arief et al. Realtime estimation of illumination direction for augmented reality on mobile devices
US11514654B1 (en) Calibrating focus/defocus operations of a virtual display based on camera settings
JP2006053694A (ja) 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
CN111292408B (zh) 一种基于注意力机制的阴影生成方法
CN106940897A (zh) 一种在ar场景中介入现实光影的方法
US11823415B2 (en) 3D pose estimation in robotics
CN110458964B (zh) 一种现实环境动态光照的实时计算方法
EP2933781A2 (en) Method and system for representing a virtual object in a view of a real environment
Sueishi et al. Lumipen 2: Dynamic projection mapping with mirror-based robust high-speed tracking against illumination changes
Tuceryan AR360: dynamic illumination for augmented reality with real-time interaction
US20210374982A1 (en) Systems and Methods for Illuminating Physical Space with Shadows of Virtual Objects
Noh et al. Soft shadow rendering based on real light source estimation in augmented reality
Monroy et al. Dynamic environment mapping for augmented reality applications on mobile devices
Wang et al. Deep consistent illumination in augmented reality
JP2010243478A (ja) 環境内の3d物体の3d姿勢を推定する方法及び装置
Oishi et al. An instant see-through vision system using a wide field-of-view camera and a 3d-lidar
Korn et al. Interactive augmentation of live images using a hdr stereo camera
JP5506371B2 (ja) 画像処理装置、画像処理方法およびプログラム
Liu et al. Lighting estimation via differentiable screen-space rendering
CN109309827A (zh) 用于360°悬浮光场三维显示系统的多人实时跟踪装置和方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant