CN117058132B - 基于神经网络的文物照明视觉舒适度量化评估方法及系统 - Google Patents
基于神经网络的文物照明视觉舒适度量化评估方法及系统 Download PDFInfo
- Publication number
- CN117058132B CN117058132B CN202311307877.0A CN202311307877A CN117058132B CN 117058132 B CN117058132 B CN 117058132B CN 202311307877 A CN202311307877 A CN 202311307877A CN 117058132 B CN117058132 B CN 117058132B
- Authority
- CN
- China
- Prior art keywords
- visual comfort
- neural network
- brightness
- hidden layer
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 193
- 238000005286 illumination Methods 0.000 title claims abstract description 75
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 49
- 238000011158 quantitative evaluation Methods 0.000 title claims abstract description 16
- 238000009826 distribution Methods 0.000 claims abstract description 55
- 238000012549 training Methods 0.000 claims abstract description 35
- 230000004313 glare Effects 0.000 claims abstract description 32
- 238000012360 testing method Methods 0.000 claims abstract description 22
- 230000008569 process Effects 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000011156 evaluation Methods 0.000 claims description 29
- 210000002569 neuron Anatomy 0.000 claims description 21
- 229910000831 Steel Inorganic materials 0.000 claims description 14
- 239000010959 steel Substances 0.000 claims description 14
- 230000004913 activation Effects 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000013459 approach Methods 0.000 claims description 3
- 238000013145 classification model Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 9
- 210000004556 brain Anatomy 0.000 abstract description 2
- 238000013178 mathematical model Methods 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000013461 design Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 7
- 230000006978 adaptation Effects 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000011002 quantification Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 239000000919 ceramic Substances 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000003339 best practice Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 238000012888 cubic function Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000004300 dark adaptation Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013210 evaluation model Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 231100000817 safety factor Toxicity 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M11/00—Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
- G01M11/02—Testing optical properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Circuit Arrangement For Electric Light Sources In General (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于神经网络的文物照明视觉舒适度量化评估方法及系统。获取视线方向上的亮度分布图像;得到亮度标准差,平均亮度,眩光像素的亮度均值,非眩光像素的亮度均值,眩光像素占全部像素的比例五项关键指标;将五项关键指标输入构建的MVC视觉舒适度指数模型,得到视觉舒适度预测结果;MVC视觉舒适度指数模型基于神经网络构建而成,根据全工况亮度分布试验结果进行训练,得到网络参数。利用基于神经网络建立的MVC视觉舒适度指数模型相比于传统的数学模型,在根据亮度、照度等指标研究舒适度时,基于神经网络更能模拟人脑神经网络传递和处理外界信息过程,计算得到视觉舒适度结果,更符合人体的直观感受。
Description
技术领域
本发明涉及建筑光学技术领域,尤其涉及一种基于神经网络的文物照明视觉舒适度量化评估方法及系统。
背景技术
不同于教室、办公室等高视觉功效类要求的建筑室内空间,以观赏藏品为主要功能需求的博物馆展厅,其光环境中最重要的是视觉舒适度。但这类空间恰好光源数量大且照明方式多、展品重点照明与空间环境照明的亮度对比大、大量玻璃展柜使得光线反射复杂,从而极易导致复杂的空间亮度分布,严重影响视觉舒适感受,因此,构建能够准确计算视觉舒适度的模型是提升光环境质量的理论基础。
Kruithof提出了Kruithof曲线法。该方法选取照度来表征照明数量,相关色温(CCT)来表征光源的颜色外观,并使用CCT范围内的最低、最高照度阈值定义了视觉舒适区。使用该方法可以得到如下结论:在低照度下使用冷光源会导致昏暗或冷的外观感受,而在高照度下使用暖光源会导致不自然的外观感受,这一观点符合浦肯野效应,即人们从昼视觉向夜视觉转变时,人眼对光的最大敏感性向高频方向移动。然而,由于获取Kruithof曲线的实验没有观察者数量和视觉任务等实验细节的描述,因此,很多学者根据不同的照明场景对Kruithof曲线进行了验证和修正。Fotios根据国际照明委员会(CIE)推荐的最佳实践指导,从梳理出的可信的Kruithof型研究中得出结论,即视觉舒适度只受光照度的影响,而不受色温的影响。随着建筑光学的发展,人们发现相较于传统的照度指标,亮度指标在视觉舒适度的评价上更具有优势,因为照度是物体单位被照面上的光通量,它并不直接作用于人眼,而亮度是视网膜上的光照度,它是直接作用于人眼决定视觉舒适度的,而对于博物馆展厅而言,其光环境的特殊性主要体现在复杂的空间亮度分布上,因此,应该使用亮度分布去衡量展厅的视觉舒适度。基于亮度分布的空间亮度感知评价指标,即空间亮度系数(Feu),如公式(1)所示。
(1)
式中为亮度矩阵中对应的亮度值,和为亮度矩阵中每个区域对应的各自的位置角度信息,N为亮度矩阵中元素的数量。该方法利用feu求取当前条件下的瞳孔直径,进而计算出人眼感知到的空间亮度,最终实现人眼对空间亮度的有效感知与量化。然而,研究表明视觉舒适度不仅与空间亮度感,即到达眼部的光量有关,还与亮度分布的均匀程度,以及场景的亮度对比度有关。对于博物馆展厅这类特殊的光环境,表征复杂亮度分布所造成的各类视觉影响则更为必要。
现有技术中,公开号为CN106791802 A的专利文献提供了一种不同观看角度和视差的立体显示视觉舒适度检测方法和系统,即在不同视差资源的情况下,以不同的水平观看角度为自变量,对因变量视觉舒适度C进行解释,同时使用三次函数的非线性回归分析方法,获取视觉舒适度计算模型,如公式(2)所示。
(2)
式中表示不同视差资源时的视觉舒适度,表示水平观看角度,为不同视差资源对应的常量,、、均为不同视差资源时对应的权重系数。该方法能够根据待测立体显示资源的视差选取对应的非线性关系模型,并在将待测立体显示资源的观看角度输入上述模型后,得到该待测立体显示资源的视觉舒适度。不同于该专利中立体显示资源的研究对象,博物馆展厅是典型的以行进型、视觉焦点型为主要环境行为模式的场景。由于视差和水平观看角度并不适用于此类环境行为模式,因此该专利不适用于博物馆展厅中的视觉舒适度量化。
公开号为CN103986925 A的专利文献提供了一种基于亮度补偿的立体视频视觉舒适度评价方法,即在根据主观评价结果建立视差深度—视觉舒适度模型的基础上,结合亮度对视觉舒适度的评价模型进行优化,从而使视觉舒适度模型的评分更接近人类视觉系统的评分,所得立体视频视觉舒适度计算模型如公式(3)所示。
(3)
式中S为综合视觉舒适度评分,vc为视觉舒适度评分,E为亮度补偿得分,、、、、、、及、、、为特征参数,为视差深度,为前景区域的亮度,为背景区域的亮度;赋值为0.75。该方法能够在输入视差深度、前景区域的亮度、背景区域的亮度的条件下,计算出基于人类视觉系统特性的立体视频视觉舒适度。该方法引入了不同区域的平均亮度来优化视觉舒适度模型,研究表明,平均亮度可以表征到达居住者眼睛的光量大小,但对于博物馆展厅这类空间亮度分布复杂的特殊照明场景,亮度分布的均匀程度、亮度的对比强度对于视觉舒适度的影响同样重要,而该模型无法表征上述两种情况所造成的视觉影响,因此该专利不适用于博物馆展厅中的视觉舒适度量化。
公开号为CN107493642 A的专利文献提供了一种优化阅读时的视觉舒适度的光环境调节方法及系统,即使用主光源单元营造阅读空间的整体光环境,使用辅助光源单元营造待阅读对象的光环境,进而由调控单元根据待阅读对象的类型生成主光源及辅助光源控制参数。所述调控单元控制算法的数学表达式如公式(4)所示。
(4)
式中,若L,则1,1,1;若L时,1,1,1;Comf表示视觉舒适度,k表示常数,表示待阅读对象的亮度,表示待阅读对象的目标部分和背景部分的亮度对比度,表示待阅读对象的目标部分和背景部分的色度对比度,、、为系数,表示阅读空间的整体光环境的亮度。该方法能够在输入待阅读对象的亮度、待阅读对象目标部分和背景部分的亮度对比度、待阅读对象目标部分和背景部分的色度对比度的条件下,计算出人员阅读时的视觉舒适度。研究表明亮度对比度是影响视觉舒适度的因素之一,但是对于博物馆展厅这类空间亮度分布复杂的特殊空间,亮度分布的均匀程度及范围同样对视觉舒适度产生影响。同时博物馆展厅出于藏品保护的需求,展品、展品表面的照度、照明光源的色温常保持恒定,即色度对比度、待阅读对象的亮度不宜设置为变量,因此该专利不适用于博物馆展厅中的视觉舒适度量化。
公开号为CN111860691 A的专利文献提供了一种基于注意力和循环神经网络的立体视频视觉舒适度分类法。该方法以儿童群体观看立体视频时的视觉舒适度为立足点,在使用深度视差参数衡量立体视频视觉舒适度的基础上,使用基于时序信息的循环神经网络构建儿童群体注意力模型,从而实现对立体视频适合儿童观看或仅适合成人观看进行有效判别。电脑图片和立体视频均是基于屏幕自发光原理的,而博物馆展厅的光环境是基于光反射原理形成的,两种不同的原理会触发不同的视觉响应机制,从而带来差异的视觉感受。同时,博物馆展厅作为以观赏藏品为主要功能需求的场所,其光环境中最重要的是视觉舒适度感受,而非是对视看内容注意力的区分,因此具备短期记忆能力的循环神经网络从原理上并非适用于构建复杂空间亮度分布的博物馆展厅视觉舒适度模型。综上所述,该专利不适用于博物馆展厅中的视觉舒适度量化。
综上所述,选取亮度分布作为分析指标,构建基于数学原理的视觉舒适度量化模型是本领域的研究趋势。但是对于博物馆展厅这类空间亮度分布复杂的特殊照明场景,目前尚未有有效的评估方式使用亮度分布对其中视觉舒适度的影响规律进行研究。
发明内容
因此,本发明的目的在于提供一种基于神经网络的文物照明视觉舒适度量化评估方法及系统,对博物馆展厅中因特殊的照明方式、亮度对比、展柜反射等因素导致空间亮度分布复杂而严重影响视觉舒适度的问题,建立一套能够在博物馆展厅内准确测量视觉舒适度指数并对指数进行视觉舒适度等级评价的系统。
为了实现上述目的,本发明的一种基于神经网络的文物照明视觉舒适度量化评估方法,包括如下步骤:
获取视线方向上的亮度分布图像;
根据得到的亮度分布图像得到亮度标准差,平均亮度,眩光像素的亮度均值,非眩光像素的亮度均值,眩光像素占全部像素的比例五项关键指标;
将,,,,五项关键指标输入构建的MVC视觉舒适度指数模型,得到视觉舒适度预测结果;所述MVC视觉舒适度指数模型基于神经网络构建而成,所述MVC视觉舒适度指数模型根据全工况亮度分布试验得到的结果训练,得到网络参数。
进一步优选的,所述MVC视觉舒适度指数模型,包括输入层、隐藏层和输出层;所述隐藏层与输出层按如下形式建立映射关系;
= (5)
=+b (6)
其中,表示10个隐藏层输出参数,y为输出层输出参数,为输入层权值,代表输入参数与隐藏层神经元的连接强度;为常数,代表隐藏层神经元的偏置系数;为隐藏层权值,代表隐藏层神经元与输出层神经元的连接强度;为常数,代表输出层神经元的偏置系数。
进一步优选的,所述输入层用于输入,,,,五项关键指标依次归一化后的数据,所述五项关键指标归一化后记为数组。
进一步优选的,所述输入层与隐藏层之间按照如下形式设置第一激活函数:
= (7)
隐藏层与输出层之间按照如下形式设置第二激活函数:
= (8)
其中x表示后一层神经元接收到的输入信号。
进一步优选的,所述MVC视觉舒适度指数模型,采用如下训练过程:
将全工况亮度分布试验下每种工况的,,,,五项关键指标作为输入数据;
将每种工况的视觉舒适度评价均值作为输出数据;
将输入数据和输出数据分配为训练集和测试集;利用训练集数据对MVC视觉舒适度指数模型进行训练,得到训练后的网络参数。
进一步优选的,还包括根据得到的视觉舒适度结果,划分视觉舒适度等级;包括如下过程:
将得到的视觉舒适度预测结果进行逆归一化运算,获取视觉舒适值,根据视觉舒适值划分视觉舒适度等级。
进一步优选的, 还包括采用莱文贝格-马夸特算法对神经网络进行优化训练,当网络的泛化指标停止变化时,停止训练;所述网络的泛化指标设置为验证数据集的均方误差,当回归系数R趋近于1并保持不变时,停止训练。
本发明还提供一种基于神经网络的文物照明视觉舒适度量化评估系统,包括二维色彩分析仪、数据获取模块和数据处理模块;
所述二维色彩分析仪用于获取视线方向上亮度分布图像;
所述数据获取模块用于根据得到的亮度分布图像得到亮度标准差,平均亮度,眩光像素的亮度均值,非眩光像素的亮度均值,眩光像素占全部像素的比例五项关键指标;
所述数据处理模块用于将,,,,五项关键指标输入构建的MVC视觉舒适度指数模型,得到视觉舒适度预测结果;所述MVC视觉舒适度指数模型基于神经网络构建而成,所述MVC视觉舒适度指数模型根据全工况亮度分布试验得到的结果训练,得到网络参数。
进一步优选的,基于神经网络构建的所述MVC视觉舒适度指数模型包括输入层、隐藏层和输出层;所述输入层用于输入,,,,五项关键指标,所述隐藏层与输出层按如下形式建立映射关系;
= (5)
=+b (6)
其中,表示隐藏层输出参数,y为输出层输出参数,为输入层权值,代表输入参数与隐藏层神经元的连接强度;为常数,代表隐藏层神经元的偏置系数;为隐藏层权值,代表隐藏层神经元与输出层神经元的连接强度;为常数,代表输出层神经元的偏置系数。
进一步优选的,还包括视觉舒适度等级划分模型,用于根据得到的视觉舒适度结果,划分视觉舒适度等级;将得到的视觉舒适度预测结果进行逆归一化运算,获取视觉舒适值,根据视觉舒适值划分视觉舒适度等级。
本申请公开的基于神经网络的文物照明视觉舒适度量化评估方法及系统相比于现有技术至少具有以下优点:
本发明实现了仅依据亮度分布图像,利用基于神经网络建立的MVC视觉舒适度指数模型相比于传统的数学模型,在根据亮度、照度等指标研究舒适度时,基于神经网络更能模拟人脑神经网络传递和处理外界信息过程,计算得到视觉舒适度结果,更符合人体的直观感受。尤其是对于博物馆展厅等复杂光环境空间,提出了基于真实博物馆展厅空间的视觉舒适度评价实验方法,能够获取不同亮度分布工况下的真实视觉舒适度感受。克服了展厅内由于独特的照明方式、昏暗的整体环境、强烈的亮度对比、复杂的光线反射等因素所带来的严重挑战。
附图说明
图1为本发明提供的一种基于神经网络的文物照明视觉舒适度量化评估方法的流程示意图;
图2为本发明复现的文物展厅;
图3为本申请中展柜的平面布局;
图4为本申请中8种人员视看点位参数;
图5为亮度分布图像测取示意图;
图6为本发明选用的人工神经网络结构图;
图7为本发明中神经网络训练过程中各数据集的误差对比图;
图8为本发明训练集的回归结果图;
图9为本发明验证集的回归结果图;
图10为本发明测试集回归结果图;
图11为本发明网络综合回归结果图;
图12为本发明提供的基于神经网络的文物照明视觉舒适度量化评估系统的结构图。
具体实施方式
以下通过附图和具体实施方式对本发明作进一步的详细说明。
如图1所示,本发明一方面实施例提供的一种基于神经网络的文物照明视觉舒适度量化评估方法,包括如下步骤:
S1、获取视线方向上的亮度分布图像;
S2、根据得到的亮度分布图像得到亮度标准差,平均亮度,眩光像素的亮度均值,非眩光像素的亮度均值,眩光像素占全部像素的比例五项关键指标;
S3、将,,,,五项关键指标输入构建的MVC视觉舒适度指数模型,得到视觉舒适度预测结果。
所述MVC视觉舒适度指数模型基于神经网络构建而成,所述MVC视觉舒适度指数模型根据全工况亮度分布试验得到的结果训练,得到网络参数。
MVC视觉舒适度指数模型在基于神经网络构建时,包括如下过程:设置输入层、隐藏层和输出层;所述隐藏层与输出层按如下公式(5)和公式(6)建立映射关系;
= (5)
=+b (6)
其中,表示10个隐藏层输出参数,y为输出层输出参数,为输入层权值,代表输入参数与隐藏层神经元的连接强度;为常数,代表隐藏层神经元的偏置系数;为隐藏层权值,代表隐藏层神经元与输出层神经元的连接强度;为常数,代表输出层神经元的偏置系数。
所述输入层用于输入,,,,五项关键指标依次归一化后的数据,所述五项关键指标归一化后记为数组。
所述输入层与隐藏层之间按照如下形式设置第一激活函数
= (7)
隐藏层与输出层之间按照如下公式(8)设置第二激活函数:
= (8)
其中x表示后一层神经元接收到的输入信号。
进一步优选的,所述MVC视觉舒适度指数模型,采用如下训练过程:
将全工况亮度分布试验下每种工况的,,,,五项关键指标作为输入数据;
将每种工况的视觉舒适度评价均值作为输出数据;
将输入数据和输出数据分配为训练集和测试集;利用训练集数据对MVC视觉舒适度指数模型进行训练,得到训练后的网络参数。
需要说明的是,由于实际的博物馆展厅由于文物安全因素,不具备可调性,无法实现大量实验要求,因此,根据现有博物馆的建设规则以及照明要求,利用可调实验舱搭建博物馆展厅的文物照明光环境模型,进行博物馆展厅全工况亮度分布试验模拟。
在进行博物馆展厅搭建时照明设计符合以下相关标准。
1、《建筑照明设计标准 GB 50034-2013》5.3.8博览建筑照明标准值应符合下列规定:博物馆建筑陈列室展品照度标准值及年曝光量限值应符合表1的规定。
表1 博物馆建筑陈列室展品照度标准值及年曝光量限值
注:1 陈列室一般照明应按展品照度值的20% ~ 30%选取;
2 陈列室一般照明UGR不宜大于19;
3 一般场所显色指数Ra不应低于80,辨色要求高的场所,Ra不应低于90。
2、《博物馆照明设计规范 GB/T 23863-2009》
一般陈列室直接照明光源的色温应小于5300 K。文物陈列室直接照明光源的色温应小于3300 K。同一展品照明光源的色温应保持一致。
室内照明光源色表可按其相关色温分为三组,光源色表分组宜按表2确定。
表2 光源色表分组
在上述国家标准中,与本发明相关的有两方面的内容:a. 重点照明参数;b. 环境照明参数。
其中重点照明参数包括展品表面的照度和直接照明光源的相关色温(CCT),对于展品表面的照度,本发明在参照《建筑照明设计标准 GB 50034-2013》第5.3.8条中对光特别敏感的书画类文物(照度标准值≤50 lx)和对光不敏感的陶瓷和珐琅器(照度标准值≤300 lx)照度标准值的基础上,基于辐照实验得到的书画类文物照明数量指标,确定了实验中展品表面的照度。对于直接照明光源的CCT,本发明在参照《博物馆照明设计规范 GB/T23863-2009》第6.3.1条中文物藏品(CCT<3300 K)和一般藏品(CCT<5300 K)CCT标准值的基础上,按照同类藏品直接照明光源CCT一致的原则确定了直接照明光源的CCT。
环境照明参数包括环境照明光源的CCT和其在展厅0.75 m水平面所形成的照度。对于环境照明光源的CCT,本发明在参照《博物馆照明设计规范 GB/T 23863-2009》第6.3.2条中文物陈列室(CCT<3300 K)和一般陈列室(3300 K≤CCT≤5300 K)CCT标准值的基础上,结合视觉舒适性和最佳视觉外观的CCT指标区间,确定了环境照明光源的CCT取值范围。对于环境照明光源在展厅0.75 m水平面所形成的照度,本发明在参照《建筑照明设计标准GB 50034-2013》第5.3.8条中“陈列室一般照明应按展品照度值的20% ~ 30%选取”注解的基础上,结合环境照度不宜高于重点照明照度的基本原则确定了环境照明光源在展厅0.75m水平面所形成的照度取值范围。
实施例1,在本实施例中将详细描述展厅的搭建过程以及全工况亮度分布试验的实施过程。
1、复现展厅真实场景
(1)搭建真实博物馆展厅。实验场景是在天津大学全尺寸可调实验舱中通过横向分隔系统和顶板升降系统围合而成的如图2所示。
(2)合理布局各类展柜,并相应放置书法、绘画、陶瓷等各类高精度文物仿品。
布置的藏品展柜包括A 型立柜(1.2 m*0.6 m*2.4 m)3只,B型立柜(1.2 m*0.6 m*2.4 m)2只,C型平柜(2.25 m*0.6 m*1.05 m)3只,D型四方柜(0.6 m*0.6 m*2.4 m)2只。展柜的平面布局如图3所示。
(3)各展柜内展品的重点照明参数设置如表3所示。
表3 重点照明参数
(4)基于环境照度应低于重点照明的原则,在展厅0.75 m水平面所形成的照度在0~240 lx区间内取值;基于视觉舒适性和最佳视觉外观的要求,展厅环境照明光源的相关色温(CCT)在3000~5700 K区间内取值。在上述范围内选取36种均匀分布的环境照明参数~如表4所示。
表4 环境照明参数
(5)每种环境照明参数下设定的8种人员视看点位参数~如图4所示。
2、调节空间亮度分布
(1)按照目前现行标准和相关研究结论确定展柜内的重点照明参数,并使用测试精度为±2%的Konica Minolta CL-500A光谱辐射照度计进行测量。
(2)按照视觉舒适性和最佳视觉外观的要求设置36种环境照明参数,同时在展厅中选取8种典型的人员视看点位参数,组合形成288种亮度分布工况。按照上述过程和现有标准,本实施例搭建的展厅根据不同点位和环境照明参数的组合形成的288种工况,能够模拟现有博物馆展厅中的任意一种,具有代表性,进一步为了丰富样本数据,可根据上述标准对实验展厅的面积和体量进行进一步扩充,参照本实施例方法形成更多种亮度分布工况,在此不再赘述。
实施例2,本实施例对利用实施例1的博物馆展厅的全工况亮度分布试验中如何得到的视觉舒适度评价均值进行展开描述。
设定连续数值量表的端点值对应的语义(本申请中连续数值量表统计过程中常用的连续量表,端点值采用数值标定,以下均称为连续数值量表),采用连续数值量表对模拟全工况亮度分布试验中得到的所有视觉舒适度评价值进行标记;
根据标记后得到的所有视觉舒适度评价值作为全样本数据;
对每一种工况的视觉舒适度评价值进行均值计算,作为当前工况的视觉舒适度评价均值。
需要说明的是,设置连续数值量表例如0-10,其中端点值0代表视觉舒适度评价结果完全没有不舒服,10代表完全不舒服,而试验人员在0-10之间选择的任意值,即为在该种工况下该测试人员的视觉舒适度评价值,得到每一种工况下,所有测试人员的视觉舒适度评价值进行均值计算,得到当前工况的视觉舒适度评价均值。
在本实施例中,可以根据设置的8种典型的人员视看点位分批次按年龄阶段选取试验人员,例如选取3-6岁幼儿8名,男女比例1:1;7-12岁儿童8名,男女比例1:1;13-18岁,中学生8名,男女比例1:1;19~29岁大学生8名,男女比例1:1;30-39岁成人8名,男女比例1:1;40-49岁成人8名,男女比例1:1;50-59岁成人8名,男女比例1:1;60-69岁成人8名,男女比例1:1;
在每天下午2点到4点之间进行实验,每个工况间有10分钟的休息时间,以确保被试者不受疲劳的影响。被试者在完成5分钟的暗适应后对评价工况进行2分钟的适应。
被试者在完成对每个工况的适应后,对适应工况给出评分,最终得到每一种工况的视觉舒适度评价均值Ev1-Ev288。
每位被试者均在36种环境照明参数下遍历了8个视看点位,完成288种不同亮度分布工况的视觉舒适度评价。被试者在完成对每个工况的适应后,采用标度区间模型确定视觉舒适度等级,其中,标度区间模型具体包括采用连续[0,10]数值量表上标记视觉舒适度评价值,例如,被试者在预设区间画一条线段,线段长度完全占据预设区间表示10,没划线表示0,将被试者根据对每个工况的感受,随意画下来的线段进行统计分析,确定所对应的视觉舒适度等级。
表5 对应的视觉舒适度等级表
3、提取视觉舒适度评价参数
(1)使用测试精度为±2%的Konica Minolta CA-2000 2D 色彩分析仪测量288种亮度分布的图像数据。
(2)使用CA-S20w软件导出评价工况亮度分布图像(像素为980*980)各像素的亮度值。
(3)选取四倍任务区平均亮度作为识别眩光源的临界亮度值,从而区分眩光像素和非眩光像素。
(4)计算任务区平均亮度和亮度标准差, 求取眩光像素的亮度均值作为, 求取非眩光像素的亮度均值作为, 计算眩光像素占全部像素的比例作为。
实施例3,本实施例对基于神经网络建立MVC视觉舒适度指数模型的过程进行详细描述。
步骤1、将二维色彩分析仪(CA-2000)架设在视看点位,如图5所示,同时将镜头高度调节至1.7 m,通过定向激光锁定目标方向,分别测量全工况亮度分布的图像数据。从固定亮度法、倍平均亮度法、倍任务区平均亮度法3种典型眩光临界亮度值的确定方法中选取四倍任务区平均亮度作为被试识别眩光源的标准。
步骤2、使用亮度标准差()来表征亮度分布的均匀程度;使用任务区平均亮度()来表征到达居住者眼睛的光量,即适应亮度的取值范围;使用眩光区域平均亮度()和背景亮度()来表征亮度的对比;使用眩光区域占比()来表征眩光源的面积大小对视觉舒适度造成的不同影响。
步骤3、将全工况的,,,,,数据依次归一化后分别记为数组,[]。
步骤4、打开MATLAB(R2017a版)软件中的Neural Net Fitting工具箱,并选取如图6所示的人工神经网络结构。该网络由隐藏层(Hidden Layer)和输出层(Output Layer)组成:隐藏层包含10个神经元,记为,输出层包含1个神经元,记为。神经元的外部参数包括:5个输入参数,记为;10个隐藏层输出参数,记为,如公式(5)所示;1个输出参数,记为y,如公式(6)所示。
= (5)
=+b (6)
隐藏层神经元的内部参数包括:权值,代表输入参数与隐藏层神经元的连接强度;常数,代表隐藏层神经元的偏置系数;激活函数,代表隐藏层神经元的激活响应,如公式(7)所示。输出层神经元的内部参数包括:权值,代表隐藏层神经元与输出层神经元的连接强度;常数,代表输出层神经元的偏置系数;激活函数,代表输出层神经元的激活响应,如公式(8)所示。
= (7)
= (8)
步骤5、将数组组合成输入参数矩阵,数组[]直接作为输出参数矩阵[],以构建训练模型所需的数据集。然后,将数据集按照70%,15%,15%的比例随机分为训练集、验证集、测试集:其中训练集数据在训练期间被提供给网络,其误差被用于调整网络结构;验证集数据在训练期间被用于监测网络的泛化,并在网络的泛化指标停止改进时结束训练;测试集数据不对网络的训练过程施加作用,而是在训练期间和结束后为网络性能的独立测量提供一个有效的手段。
进一步还包括步骤6、采用莱文贝格-马夸特算法对神经网络进行优化训练,当网络的泛化指标停止改善时,停止训练;所述网络的泛化指标设置为验证数据集的均方误差,当回归系数R趋近于1并保持不变时,停止训练。
选取莱文贝格-马夸特(Levenberg-Marquardt)算法对网络进行训练,其运行机制为当网络的泛化指标停止变化时,训练自动停止。其中验证数据集的均方误差(MSE)被作为监测网络泛化的指标,MSE值越低代表网络的泛化能力越好。回归系数(R)被作为评价网络性能的指标,R值越高代表网络的预测性能越好。
步骤7、在上述基础设定条件下对网络进行训练,训练结果如图7所示。图7显示了网络在训练过程中各数据集的误差变化情况,网络的泛化指标在图中标记处第19代停止改善。
进一步还包括步骤8、根据Neural Net Fitting工具箱的内置设定,选取各数据集回归系数均方根最小的人工神经网络结构作为最佳结果,该网络下各数据集的回归结果如图8-11所示。由图8-11可知,该网络各数据集的回归系数, , , 分别为0.80442, 0.80175, 0.74429, 0.79191。Pearson回归系数R的不同取值对应着变量间不同的相关强度:当R=0时,代表随机关系;当0.0<R<0.2时,代表极弱相关;当0.2<R<0.4时,代表弱相关;当0.4<R<0.6时,代表中等强度相关;当0.6<R<0.8时,代表强相关;当0.8<R<1.0时,代表极强相关;当R=1时,代表密切关系。综上所述,该网络结构具有较好的性能。
提取上述网络隐藏层神经元的内部参数:权值,常数;和输出层神经元的内部参数:权值,常数,如表6所示。
表6 人工神经网络结构参数
使用表6中的模型结构参数构建视觉舒适度模型MVC,如公式(9)所示。
= (9)
式中,为归一化的视觉舒适度值,[]为上述输入参数矩阵,net为人工神经网络映射结构。根据得到的视觉舒适度结果,划分视觉舒适度等级;包括如下过程:
将得到的视觉舒适度预测结果进行逆归一化运算,获取视觉舒适值,根据视觉舒适值划分视觉舒适度等级,可以按照上述实施例2中标度区间模型的方案进行。
视觉舒适度模型MVC计算得到的视觉舒适值所对应的视觉舒适度等级如表7所示。
表7 对应的视觉舒适度等级
如图12所示,本发明还提供一种基于神经网络的文物照明视觉舒适度量化评估系统,用于实施上述评估方法,包括二维色彩分析仪、数据获取模块和数据处理模块;
所述二维色彩分析仪用于获取视线方向上亮度分布图像;
所述数据获取模块用于根据得到的亮度分布图像得到亮度标准差,平均亮度,眩光像素的亮度均值,非眩光像素的亮度均值,眩光像素占全部像素的比例五项关键指标;
所述数据处理模块用于将,,,,五项关键指标输入构建的MVC视觉舒适度指数模型,得到视觉舒适度预测结果;所述MVC视觉舒适度指数模型基于神经网络构建而成,所述MVC视觉舒适度指数模型根据全工况亮度分布试验得到的结果训练,得到网络参数。
进一步优选的,基于神经网络构建的所述MVC视觉舒适度指数模型包括输入层、隐藏层和输出层;所述输入层用于输入,,,,五项关键指标,所述隐藏层与输出层按如下形式建立映射关系;
= (5)
=+b (6)
其中,表示10个隐藏层输出参数,y为输出层输出参数,为输入层权值,代表输入参数与隐藏层神经元的连接强度;为常数,代表隐藏层神经元的偏置系数;为隐藏层权值,代表隐藏层神经元与输出层神经元的连接强度;为常数,代表输出层神经元的偏置系数。
进一步优选的,还包括视觉舒适度等级划分模型,用于根据得到的视觉舒适度结果,划分视觉舒适度等级;将得到的视觉舒适度预测结果进行逆归一化运算,获取视觉舒适值,根据视觉舒适值按照表7的形式,划分视觉舒适度等级。
实施例4,本实施例对基于神经网络建立MVC视觉舒适度指数模型的验证过程进行详细描述。
将2D 色彩分析仪(CA-2000)架设在视看点位,同时将镜头高度调节至1.7 m,通过定向激光锁定目标方向,分别测量288种亮度分布的图像数据,选取年龄处于20~29岁(没有年龄分层)的8名在校研究生被试者进行视觉舒适度评价实验。
最终,将288个工况下的预测值~与实际值~进行对比分析,以确定模型MVC在计算博物馆展厅视觉舒适度时的准确率。这里的准确率被定义为对给定数据集正确预测的百分比,如公式(10)所示。
Accuracy Rate = (TP+TN)/(TP+FP+TN+FN) (10)
其中,TP、TN、FP和FN分别代表真阳性、真阴性、假阳性和假阴性的数量。在五个视觉舒适度等级下,符合真实评价结果的MVC计算结果的数量见表8。
表8 288种工况下的数量
由表8可知,在288种亮度分布工况中,有272种工况下的计算结果符合真实评价结果,即视觉舒适度模型MVC预测展厅视觉舒适度等级的准确率为94.44%,用272除以288计算得出。上述结果表明,模型MVC可以实现对博物馆展厅视觉舒适度的定量计算和等级评价。
显然,上述实施例仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。
Claims (5)
1.一种基于神经网络的文物照明视觉舒适度量化评估方法,其特征在于,
包括如下步骤:
获取视线方向上的亮度分布图像;
根据得到的亮度分布图像得到亮度标准差,平均亮度,眩光像素的亮度均值,非眩光像素的亮度均值,眩光像素占全部像素的比例五项关键指标;
将,,,,五项关键指标输入构建的MVC视觉舒适度指数模型,得到视觉舒适度预测结果;所述MVC视觉舒适度指数模型基于神经网络构建而成,所述MVC视觉舒适度指数模型根据全工况亮度分布试验得到的结果训练,得到网络参数;所述MVC视觉舒适度指数模型,采用如下训练过程:
将全工况亮度分布试验下每种工况的,,,,五项关键指标作为输入数据;
将每种工况的视觉舒适度评价均值作为输出数据;
将输入数据和输出数据分配为训练集和测试集;利用训练集数据对MVC视觉舒适度指数模型进行训练,得到训练后的网络参数;
所述MVC视觉舒适度指数模型包括输入层、隐藏层和输出层;所述隐藏层与输出层按如下公式(5)和公式(6)建立映射关系;
= (5)
=+b (6)
其中,表示隐藏层输出参数,y为输出层输出参数,为输入层权值,代表输入参数与隐藏层神经元的连接强度;为常数,代表隐藏层神经元的偏置系数;为隐藏层权值,代表隐藏层神经元与输出层神经元的连接强度;为常数,代表输出层神经元的偏置系数;
根据得到的视觉舒适度结果,划分视觉舒适度等级;包括如下过程:
将得到的视觉舒适度预测结果进行逆归一化运算,获取视觉舒适值,根据视觉舒适值划分对应的视觉舒适度等级。
2.根据权利要求1所述的基于神经网络的文物照明视觉舒适度量化评估方法,其特征在于,所述输入层用于输入,,,,五项关键指标依次归一化后的数据,所述五项关键指标归一化后记为数组[[[[[。
3.根据权利要求2所述的基于神经网络的文物照明视觉舒适度量化评估方法,其特征在于,所述输入层与隐藏层之间按照如下公式(7)设置第一激活函数:
= (7)
隐藏层与输出层之间按照如下公式(8)设置第二激活函数):
= (8)
其中,x表示后一层神经元接收到的输入信号。
4.根据权利要求1所述的基于神经网络的文物照明视觉舒适度量化评估方法,其特征在于, 还包括采用莱文贝格-马夸特算法对神经网络进行优化训练,当网络的泛化指标停止变化时,停止训练;所述网络的泛化指标设置为验证数据集的均方误差,当回归系数R趋近于1并保持不变时,停止训练。
5.一种基于神经网络的文物照明视觉舒适度量化评估系统,其特征在于:用于实现上述权利要求1-4中任意一项所述的基于神经网络的文物照明视觉舒适度量化评估方法的步骤;包括二维色彩分析仪、数据获取模块和数据处理模块;
所述二维色彩分析仪用于获取视线方向上亮度分布图像;
所述数据获取模块用于根据得到的亮度分布图像得到亮度标准差,平均亮度,眩光像素的亮度均值,非眩光像素的亮度均值,眩光像素占全部像素的比例五项关键指标;
所述数据处理模块用于将,,,,五项关键指标输入构建的MVC视觉舒适度指数模型,得到视觉舒适度预测结果;所述MVC视觉舒适度指数模型基于神经网络构建而成,所述MVC视觉舒适度指数模型根据全工况亮度分布试验得到的结果训练,得到网络参数;
基于神经网络构建的所述MVC视觉舒适度指数模型包括输入层、隐藏层和输出层;所述输入层用于输入,,,,五项关键指标,所述隐藏层与输出层按如下公式(5)和公式(6)建立映射关系;
= (5)
=+b (6)
其中,表示10个隐藏层输出参数,y为输出层输出参数,为输入层权值,代表输入参数与隐藏层神经元的连接强度;为常数,代表隐藏层神经元的偏置系数;为隐藏层权值,代表隐藏层神经元与输出层神经元的连接强度;为常数,代表输出层神经元的偏置系数;还包括视觉舒适度等级划分模型,用于根据得到的视觉舒适度结果,划分视觉舒适度等级;将得到的视觉舒适度预测结果进行逆归一化运算,获取视觉舒适值,根据视觉舒适值划分对应的视觉舒适度等级。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311307877.0A CN117058132B (zh) | 2023-10-11 | 2023-10-11 | 基于神经网络的文物照明视觉舒适度量化评估方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311307877.0A CN117058132B (zh) | 2023-10-11 | 2023-10-11 | 基于神经网络的文物照明视觉舒适度量化评估方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117058132A CN117058132A (zh) | 2023-11-14 |
CN117058132B true CN117058132B (zh) | 2024-01-23 |
Family
ID=88655634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311307877.0A Active CN117058132B (zh) | 2023-10-11 | 2023-10-11 | 基于神经网络的文物照明视觉舒适度量化评估方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117058132B (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103986925A (zh) * | 2014-06-05 | 2014-08-13 | 吉林大学 | 基于亮度补偿的立体视频视觉舒适度评价方法 |
WO2017216623A2 (en) * | 2016-06-12 | 2017-12-21 | Ecole Polytechnique Federale De Lausanne (Epfl) | Lighting control system |
CN108389192A (zh) * | 2018-02-11 | 2018-08-10 | 天津大学 | 基于卷积神经网络的立体图像舒适度评价方法 |
CN108537777A (zh) * | 2018-03-20 | 2018-09-14 | 西京学院 | 一种基于神经网络的作物病害识别方法 |
CN108615231A (zh) * | 2018-03-22 | 2018-10-02 | 浙江科技学院 | 一种基于神经网络学习融合的全参考图像质量客观评价方法 |
CN109875863A (zh) * | 2019-03-14 | 2019-06-14 | 河海大学常州校区 | 基于双目视觉与脑力影像训练的头戴式vr视力提升系统 |
CN112070332A (zh) * | 2019-06-11 | 2020-12-11 | 天津大学 | 满足光舒适的教室照明节能评价模型及照明系统控制算法 |
CN112347972A (zh) * | 2020-11-18 | 2021-02-09 | 合肥湛达智能科技有限公司 | 一种基于深度学习的高动态感兴趣区域图像处理方法 |
CN113613545A (zh) * | 2019-03-20 | 2021-11-05 | 卡尔蔡司医疗技术公司 | 具有单次曝光多类型成像、改进的聚焦和改进的血管造影图像序列显示的患者调节的眼科成像系统 |
CN113673389A (zh) * | 2021-08-09 | 2021-11-19 | 天津大学 | 光源光谱功率分布相关的绘画照明视觉评价方法 |
CN114048590A (zh) * | 2021-10-20 | 2022-02-15 | 复旦大学 | 基于人眼视觉感知的氛围灯评估方法及系统 |
CN115209122A (zh) * | 2022-07-26 | 2022-10-18 | 福州大学 | 一种基于多智能体的立体图像视觉舒适度增强方法及系统 |
CN115688426A (zh) * | 2022-11-01 | 2023-02-03 | 东南大学 | 一种用于平板显示器件显示的感知亮度表征方法 |
CN116341274A (zh) * | 2023-04-09 | 2023-06-27 | 天津大学 | 基于视觉生理特征和舒适度的教室设计决策系统及方法 |
-
2023
- 2023-10-11 CN CN202311307877.0A patent/CN117058132B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103986925A (zh) * | 2014-06-05 | 2014-08-13 | 吉林大学 | 基于亮度补偿的立体视频视觉舒适度评价方法 |
WO2017216623A2 (en) * | 2016-06-12 | 2017-12-21 | Ecole Polytechnique Federale De Lausanne (Epfl) | Lighting control system |
CN108389192A (zh) * | 2018-02-11 | 2018-08-10 | 天津大学 | 基于卷积神经网络的立体图像舒适度评价方法 |
CN108537777A (zh) * | 2018-03-20 | 2018-09-14 | 西京学院 | 一种基于神经网络的作物病害识别方法 |
CN108615231A (zh) * | 2018-03-22 | 2018-10-02 | 浙江科技学院 | 一种基于神经网络学习融合的全参考图像质量客观评价方法 |
CN109875863A (zh) * | 2019-03-14 | 2019-06-14 | 河海大学常州校区 | 基于双目视觉与脑力影像训练的头戴式vr视力提升系统 |
CN113613545A (zh) * | 2019-03-20 | 2021-11-05 | 卡尔蔡司医疗技术公司 | 具有单次曝光多类型成像、改进的聚焦和改进的血管造影图像序列显示的患者调节的眼科成像系统 |
CN112070332A (zh) * | 2019-06-11 | 2020-12-11 | 天津大学 | 满足光舒适的教室照明节能评价模型及照明系统控制算法 |
CN112347972A (zh) * | 2020-11-18 | 2021-02-09 | 合肥湛达智能科技有限公司 | 一种基于深度学习的高动态感兴趣区域图像处理方法 |
CN113673389A (zh) * | 2021-08-09 | 2021-11-19 | 天津大学 | 光源光谱功率分布相关的绘画照明视觉评价方法 |
CN114048590A (zh) * | 2021-10-20 | 2022-02-15 | 复旦大学 | 基于人眼视觉感知的氛围灯评估方法及系统 |
CN115209122A (zh) * | 2022-07-26 | 2022-10-18 | 福州大学 | 一种基于多智能体的立体图像视觉舒适度增强方法及系统 |
CN115688426A (zh) * | 2022-11-01 | 2023-02-03 | 东南大学 | 一种用于平板显示器件显示的感知亮度表征方法 |
CN116341274A (zh) * | 2023-04-09 | 2023-06-27 | 天津大学 | 基于视觉生理特征和舒适度的教室设计决策系统及方法 |
Non-Patent Citations (3)
Title |
---|
博物馆照明中照度与时间对染色文物的损伤规律;党睿等;《照明工程学报》;第第33卷卷(第第5期期);全文 * |
基于C - 支持向量机的教室投影阅读舒适度评价;党睿等;《照明工程学报》;第第30卷卷(第第3期期);全文 * |
建筑空间及照明参数对视觉敏锐度的影响研究;党睿等;《照明工程学报》;第第31卷卷(第第6期期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117058132A (zh) | 2023-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chadwick et al. | The perception of gloss: A review | |
Kruisselbrink et al. | Photometric measurements of lighting quality: An overview | |
Ged et al. | Recognizing real materials from their glossy appearance | |
Rodriguez et al. | An epidemiological approach to daylight discomfort glare | |
Cauwerts | Influence of presentation modes on visual perceptions of daylit spaces | |
CN109640786A (zh) | 视觉功能检查及光学特性计算系统 | |
Vittori et al. | Subjective thermal response driving indoor comfort perception: A novel experimental analysis coupling building information modelling and virtual reality | |
CN102928206A (zh) | 裸眼3d显示图像源和显示设备综合测试系统及测试方法 | |
Wiebel et al. | Maximum likelihood difference scales represent perceptual magnitudes and predict appearance matches | |
Shi et al. | An intelligent optimization method of exercisers' visual comfort assessment in gymnasium | |
CN117058132B (zh) | 基于神经网络的文物照明视觉舒适度量化评估方法及系统 | |
Błaszczak | Method for evaluating discomfort glare based on the analysis of a digital image of an illuminated interior | |
CN107407593B (zh) | 照明评价装置和照明评价方法 | |
Zeiner et al. | Linking luminance and lightness by global contrast normalization | |
Hsieh | The energy-saving effect and prediction method under various illuminance distribution types | |
Zaikina et al. | Luminance-based measures of shape and detail distinctness of 3D objects as important predictors of light modeling concept. Results of a full-scale study pairing proposed measures with subjective responses | |
Kallie et al. | Identification and detection of simple 3D objects with severely blurred vision | |
Maloney et al. | The illuminant estimation hypothesis and surface colour perception | |
Lee et al. | Development of the nomo-graph for evaluation on discomfort glare of windows | |
CN116306319B (zh) | 基于遗传算法的文物照明眩光量化评估方法及系统 | |
Zaikina | LIGHT MODELLING IN ARCHITECTURAL SPACES: LUMINANCE-BASED METRICS OF CONTOUR, SHAPE AND DETAIL DISTINCTNESS OF DAY-LIT 3D OBJECTS | |
Eloholma | Development of visual performance based mesopic photometry | |
CN202928783U (zh) | 裸眼3d显示图像源和显示设备综合测试系统 | |
He et al. | P‐3.1: Research on Display Brightness Perception and Visual Comfort Representation Model | |
Montrucchio et al. | Thresholds of vision of the human visual system: Visual adaptation for monocular and binocular vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |