CN116704044A - 一种面向降雨复杂环境智能汽车测试的相机模型构建方法 - Google Patents

一种面向降雨复杂环境智能汽车测试的相机模型构建方法 Download PDF

Info

Publication number
CN116704044A
CN116704044A CN202310674650.3A CN202310674650A CN116704044A CN 116704044 A CN116704044 A CN 116704044A CN 202310674650 A CN202310674650 A CN 202310674650A CN 116704044 A CN116704044 A CN 116704044A
Authority
CN
China
Prior art keywords
camera
pixel
target object
point
rainfall
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310674650.3A
Other languages
English (en)
Inventor
朱冰
黄殷梓
赵健
高质桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN202310674650.3A priority Critical patent/CN116704044A/zh
Publication of CN116704044A publication Critical patent/CN116704044A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种面向降雨复杂环境智能汽车测试的相机模型构建方法,包括相机几何模型构建和相机物理模型构建,相机几何模型用于确定测试场景中目标物体在相机成像平面内像素位置,相机物理模型通过光源信息、降雨信息和相机参数信息基于光线追踪确定对应像素位置的像素强度,通过像素强度确定对应图像信息特征。本发明可以在虚拟仿真或封闭场地测试前提供先验知识,对测试的结果进行预测,或用于指导虚拟仿真边缘测试场景的搜索或封闭场地中目标物体的实际布置情况,降低测试成本,提高测试效率,缩短测试周期。

Description

一种面向降雨复杂环境智能汽车测试的相机模型构建方法
技术领域
本发明涉及一种相机模型构建方法,特别涉及一种面向降雨复杂环境智能汽车测试的相机模型构建方法。
背景技术
基于场景的测试方法是保证智能汽车实际落地、安全应用的有效方法。然而由于智能汽车实际行驶的环境复杂多变,若使用传统的实车测试方法会具有测试场景不可控、场景重复性差和场景布置成本高等缺陷,因此基于仿真的测试场景构建方法近年来已成为热点研究话题。同时,智能汽车测试评价对象已从传统的人、车二元独立系统变成了人-车-环境-任务强耦合系统,其中气象环境对智能汽车的影响不仅表现在传统汽车的路面附着能力方面,而且对感知系统具有更加显著的影响。相机是感知系统中最常用的传感器之一,相机属于被动传感器,相比于激光雷达、毫米波雷达等主动传感器受到场景中气象环境要素的影响较大。雨天作为真实世界中最常见的复杂气象之一,常出现在驾驶环境中,相机传感器的功能在降雨环境中会受到极大的影响,进而放大影响最终导致智能汽车规划、控制模块失效,造成严重的交通事故。因此在智能汽车相机传感器的测试场景设计过程中,需要考虑针对不同相机参数、目标物种类等因素下如何设计相应的降雨信息进而测试智能汽车的功能,这需要高拟真度的相机模型和降雨模糊模型作为测试场景构建的基础。
发明内容
为了解决上述技术问题,本发明提供的一种面向降雨复杂环境智能汽车测试的相机模型构建方法,包括以下步骤:
(1)相机几何模型构建:
相机几何模型用于确定智能汽车测试场景中目标物体在相机成像平面内的像素位置。
首先利用轴对齐包围盒对目标物体的几何形状特征信息进行简化,其次基于相机的安装参数和内置参数确定在相机成像面内目标物体对应的像素位置,作为相机物理模型的输入。具体步骤如下:
(1.1)利用AABB简化目标物体特征:
本发明通过轴对齐包围盒(Axis-Aligned-Bounding-Box,AABB)对像素空间进行初筛,确定可能提供目标物体关键特征的像素群:从每一个图像平面的像素点出发求取射线与目标物体的AABB的x、y面的交点,射线r(t)表达式为:
式中,r(t)为图像平面的像素点与镜头连线构成的射线;o为像素点坐标;为像素点和镜头中心连线方向的单位向量;t为光线传播距离;
通过交点关系得出与目标物体AABB的交点ti=max[tmin],to=min[tmax];ti代表射线进入AABB时的传播距离;to代表射线离开AABB时的传播距离;tmin为射线与AABB平行面进入交点距离;tmax代表射线与AABB平行面离开交点距离;当且仅当ti<to时,该像素判定成有效像素,其他条件均为无效像素;有效像素是指该像素与光心连线的延长线与场景中目标物体的AABB相交;无效像素是指该像素与光心连线的延长线未与场景中目标物体的AABB相交;
(1.2)根据几何关系确定像素位置:
利用Ho和Wo描述目标平面上的一点,其中HO是指该点与水平面之间的距离,WO是指该点偏离目标物体中轴线的距离,该点对应的像素平面点的横纵坐标为(imav,imau),imav表达为:
式中,相机透镜中心与目标点连线记作ι,δhon代表相机光轴与ι之间的夹角,其值表达为:
对于imau的计算,其表达式为:
式中,RSx,RSy为CMOS的横纵向分辨率,θI为相机光轴与竖直线的夹角,(xc,yc,zc)为相机相对于世界坐标系的位置信息,(xT,yT)为目标物相对于世界坐标系的位置信息,为目标物的长度、宽度和高度,f为相机焦距;
通过测试场景几何位置关系得出(imav,imau),该值作为相机几何模型的输出,将作为相机物理模型的输入,通过物理模型输出该位置像素;
(2)相机物理模型构建:
相机物理模型构建包括:
(2.1)基于光线追踪计算理想情况下的像素强度;
基于光线追踪计算相机几何模型输出的像素位置的像素数值,光线追踪是将场景中的渲染任务拆分成从相机出发的若干条光线与场景的相交,根据交点处的表面材质、法向量等信息并结合光源信息计算像素强度。具体步骤包括:
(2.1.1)光源分析:
光源是像素计算的主要影响因素,光源辐射强度I(单位:瓦特/立体角)是指单位时间内在单位立体角上的光通量Q(单位:瓦特),表达式为:
式中,h代表普朗克常量;c代表光速;λ(t)代表光源随时间变化的波长表达式;Ω代表立体角;φ代表光源功率;
智能汽车常行驶在太阳光条件中,由于太阳距离相机感知的目标物体距离较远,将太阳光抽象成点光源,点光源的辐射范围为半径为r的球形,对于该球面上的有限面积A接收到的光源功率,称为辐照度E,其表达式为:
式中,θ代表入射光线和物体表面法向量之间夹角;r代表点光源与目标物体之间的距离;
(2.1.2)目标物体物理模型构建:
场景中的目标物体接收到光源辐射的辐照度E后,根据目标物体的表面的法向量和材质特性,入射光线的性质会发生改变,一般而言光强会变弱、波长会根据物体材质发生变化且传播方向会发生改变。双向反射分布函数(Bidirectional ReflectanceDistribution Function,BRDF)用于描述材质表面在不同入射角度和出射角度下的反射率,表达式为:
式中,L(αrr)代表目标物体表面辐射度,单位为瓦特/平方米*方位角;E(αii)代表目标物体表面辐照度,单位为瓦特/平方米;α和β描述入射和反射光线的角度关系;
(2.1.3)相机模型构建:
首先建立目标物体表面辐射度L(αrr)与图像辐照度EI之间的关系,对于面积为dAi的像素平面,面积为dAs的目标物体,从镜头中心对应像素平面的立体角dωi与中心对应目标物体的立体角dωs大小相同,因此根据立体角的定义得出:
得出dAi与dAs的比例关系:
式中,α为对应像素与目标点连线和光轴之间的夹角;θ为镜头中心与像素对应点连线和目标物体该点法向量之间的夹角;f为相机焦距;z为目标物体特征点到镜头中心的水平距离;该特征点对于相机透镜平面的立体角dωL表达为:
式中,D为相机镜头直径;
根据能量守恒定律可知,镜头从dAs接受到的光通量与投影到dAi像素平面的光通量相同,则图像辐照度EI表达为:
EI·dAi=L·(dAs·cosθ)·dωL (12)
将式(10-11)带入到式(12)中得出图像辐照度EI的最终表达式为:
数字相机会将该光信号转化为电荷信号,对于图像传感器上的每个感光单元来说,其收到图像辐照度后由光电效应释放出的电子个数Ie表示为:
Ie=T∫EI·S·q(λ)dλ (14)
式中,T为积分时间;S表示感光单元内的灵敏度空间波动;q(λ)表示相机的光电转换函数;在这之后感光单元内产生的电荷信号经由放大电路进行放大,并经由模数转换器输出数字信号缓存在存储单元,输出的量为DN,该数字信号是相机的原始响应值(RawResponse,RR),表达式为:
式中,g′代表模拟电路的增益倍数;Vos代表偏置电压;η代表模数转化的量化步长;然而对于RR而言无法直接用于图像处理算法进而处理,需要进行一系列后处理算法输出最终的RGB三通道图像信息,具体的后处理步骤包括线性处理、白平衡变换、色彩插值、色彩空间转换、亮度校正与伽马校正才能输出最终的色彩图像:
第一步是线性处理,由于不同相机厂商对于RR存储的上下限都具有不同取值,在选择对应取值时候,应当注意模拟相机的范围,本发明将下限定义为black,上限定义为saturation,则线性处理过程得到的图像RRLin表示为:
第二步是白平衡处理,该过程主要是对RGB三个通道乘上不同的增益系数,以补偿因为三种不同颜色滤波片具有不同光谱灵敏度带来的影响,若在该步骤完全不考虑图像的亮度处理,每一个通道乘以的系数是完全等比例的,则图像颜色的变化影响是等效的。一般来说,G通道的增益设定为1,通过改变R和B通道两个增益进行图像的白平衡处理,假设对应这两个通道的增益设定为gainR和gainB,则对于色彩滤波片为[RGGB]排列而言,白平衡处理矩阵为:
第三步是色彩插值,也称为去马赛克化处理,通过白平衡处理得到了一维的具有图像矩阵,该步骤为了获取图像信息,需要确定每一个像素位置对应的RGB三通道取值,表达式为:
通过该步骤得到了三维图像数据;
第四步是色彩空间转换,色彩空间会随着显示设备的不同输出不同的值,该值主要由Ac2s矩阵决定,Ac2s由两部分Ac←x和Ax←s组成,表达式为:
Ac2s=(Ac←x·Ax←s)-1 (19)
式中Ax←s在国际照明委员会(CIE)公布的标准中查到:
而对于Ac←x则根据不同的相机型号进行确认;
第五步是亮度校正与伽马校正,在该步骤之前,进行的操作都保证图像信息与场景呈现线性分布,但是对于实际的智能汽车应用而言,需要保证一定的亮度信息,该步骤主要通过对色彩空间转化后的图像进行全局亮度调整实现的。
(2.2)基于降雨模糊模型确定像素强度突变;
所述的降雨模糊模型构建:
降雨是一种运动速度较快且具有随机分布的不同形状、大小的气象状态。降雨环境对图像的影响主要表现在像素强度的突变,同时雨滴具有强随机性,无法按照固定的规律出现在相机视角内。本发明为了建立降雨环境对车载相机产生影响的数学模型,分别对雨滴具有的粒子尺度分布、降雨有效分布、空间随机干扰和像素强度突变四种真实特性进行建模。并利用该雨滴模糊数学模型对相机的DN信息进行处理,建立用于降雨环境智能汽车测试的相机模型。
雨滴粒子尺度分布是指不同降雨量的降雨环境中不同尺寸的雨滴会具有不同的数量分布,以描述不同降雨量中不同大小雨滴的数量分布情况;降雨有效分布是指对于相机传感器而言,并非所有的雨滴干扰都对智能汽车功能产生影响,需要根据测试场景中目标物体的几何属性确定雨滴影响的范围;空间随机干扰是指雨滴对像素强度的影响具有随机性,在有效分布的基础上需要对该随机性进行建模以准确描述雨滴影响图像像素强度的位置与时刻随机性;强度突变特性是指图像中出现雨滴的位置对应的像素强度会相较于无雨滴位置产生突变,具体表现在该位置的像素强度大于不存在降雨环境下的像素强度。本发明采用拒绝采样对雨滴粒子尺度分布进行建模;利用有效区域对雨滴的有效分布进行建模;利用混沌映射对降雨的随机分布进行建模;利用高斯脉冲对雨滴对像素强度造成的强度突变进行建模,以模拟真实降雨环境,应用于智能汽车测试验证。具体步骤包括:
(2.2.1)有效分布模拟:
本发明定义有效影响相机功能的区域为有效分布区域,其体积数值记作Vin,对于车辆作为目标的情况下,该区域通过从相机镜头中心为原点向目标物体的AABB进行映射,最先相交的面与原点连线构成的两个三角锥体积就是对应的Vin,利用该值与雨滴粒子分布曲线N(ara)相乘得到在该范围内不同雨滴尺寸对应的分布情况;
(2.2.2)随机干扰模拟:
本发明选择混沌映射的方法对位置随机性进行建模,具体的混沌映射表达式为:
y=δsin(πxi) (21)
式中,δ是系统参数,δ∈[0,1],当δ∈(0.87,0.93)∪(0.95,1)时出现混沌现象;将Vin中点的x、y、z坐标同时进行混沌映射得到对应的随机分布结果;
(2.2.3)雨滴粒子尺度模拟:
本发明将雨滴形状假设成球形进行分析,对于雨滴的竖直向下运动速度vra采用经验公式进行描述:
在该经验公式中,ara为雨滴半径,对应的单位关系:ara单位为毫米;vra单位为米每秒;
而对于雨滴的大小会在一定空间内呈现随机的分布N(ara),在该分布的输入为雨滴直径2ara,该值描述了不同雨滴直径在一定空间内的分布个数分布情况,该分布情况利用对数正态分布表达式进行描述:
式中,σ代表雨滴尺寸的标准差;NT代表单位体积内模拟的雨滴总数;D为相机镜头直径;Dg代表雨滴直径的平均值;
雨滴粒子尺度模拟采用拒绝抽样法进行抽样,使用正态分布进行辅助筛选,将N(ara)记作p(x),q(x)作为辅助函数满足标准正态分布,选取M值使p(x)一直处于Mq(x)的下方;随机取样x(i)~q(x),u~U(0,1),对满足下式的采样进行接受,否则拒绝:
(2.2.4)强度突变模拟:
由于在相机采样时间内,雨滴的运动会对一段像素强度造成影响,产生“雨带”效应,具体造成影响的像素个数通过以下表达式进行描述:
式中,Ieff为一滴雨影响像素强度的个数;τ代表被测相机帧率;dis代表雨滴与相机镜头中心的水平距离;
对于一个像素点而言,通过有效分布模拟确定影响该像素点的雨滴个数为Ie,则该像素点由于降雨造成的影响ΔI表达为:
式中,ΔImax为雨滴对像素强度影响的最大值,Ie为影响一个像素点强度的雨滴个数,Gc为高斯脉冲模型;
通过前三个模型分别描述了雨滴的有效性、粒子尺度分布和随机性,然而实际造成影响的像素强度也需要通过模型进行描述。雨滴由于其内部反射特性,使其收集到大视场角的光线,进而导致雨滴造成像素强度突变,且该突变值受环境背景光线的影响较小,根据上述性质,本发明将雨滴对像素强度的影响通过高斯脉冲模型对其进行建模,高斯脉冲表达为:
Gc(x)=ε*exp[(x)2/(2σg 2)] (27)
式中,ε为高斯脉冲的峰值,σg为高斯脉冲的标准差;ε是描述突变强度的重要参数,该参数的取值和雨滴(xdrop,ydrop,zdrop)与相机(xc,yc,zc)的距离Dis有关,表达式为:
式中,Tc是相机曝光时间;τra是雨滴经过一个像素对应距离的时间;Nc是相机的F数;Lr和Lb分别代表存在降雨和无降雨情况下的场景辐照度;计算每一个Ie对应的ε,并带入式(26)中计算得出该像素点对应的ΔI;同时在计算雨滴对像素强度影响的最大值ΔImax时,将ara选择模拟雨滴中的平均值;最终确定每一个像素受到降雨环境的影响ΔI,输出最后的图像信息。
本发明的有益效果:
本发明提出的相机模型由相机几何模型和相机物理模型构成,相机几何模型用于确定测试场景中目标物体在相机成像平面内像素位置,相机物理模型通过光源信息、降雨信息和相机参数信息基于光线追踪确定对应像素位置的像素强度,通过像素强度确定对应图像信息特征。对于降雨特征,利用拒绝采样对雨滴粒子尺度分布进行建模;利用有效区域对雨滴的有效分布进行建模;利用混沌映射对降雨的随机分布进行建模;利用高斯脉冲对雨滴对像素强度造成的强度突变进行建模。通过本发明的方法可以在虚拟仿真或封闭场地测试前提供先验知识,对测试的结果进行预测,可以用于指导虚拟仿真边缘测试场景的搜索或封闭场地中目标物体的实际布置情况,降低测试成本,提高测试效率,缩短测试周期。
附图说明
图1为本发明整体流程示意图;
图2为本发明利用AABB简化目标物体特征示意图;
图3为本发明AABB示意图;
图4为本发明根据几何关系确定像素位置示意图;
图5为本发明单透镜理想光学系统成像模型示意图;
图6为本发明图像后处理流程示意图;
图7为本发明白平衡输出示意图;
图8为本发明图像全局亮度调整示意图;
图9为本发明雨滴模拟方法示意图;
图10为本发明有效分布模拟示意图;
图11为本发明利用混沌映射生成随机位置的雨滴示意图;
图12为本发明雨滴粒子分布曲线示意图;
图13为本发明雨滴粒子尺度模拟的结果示意图;
图14为本发明单个雨滴对像素的影响示意图。
具体实施方式
如图1所示:本发明提供的一种面向降雨复杂环境智能汽车测试的相机模型构建方法,包括以下步骤:
1.相机几何模型构建
相机几何模型用于确定智能汽车测试场景中目标物体在相机成像平面内的像素位置。
首先利用轴对齐包围盒对目标物体的几何形状特征信息进行简化,其次基于相机的安装参数和内置参数确定在相机成像面内目标物体对应的像素位置,作为相机物理模型的输入。
1.1利用AABB简化目标物体特征
如图2所示:智能汽车测试场景构建过程中需要考虑特定目标物体的空间位置设计,若直接对目标物体进行建模会消耗大量计算资源,因此本发明通过轴对齐包围盒(Axis-Aligned-Bounding-Box,AABB)对像素空间进行初筛,确定可能提供目标物体关键特征的像素群。
如图3所示,具体地,从每一个图像平面的像素点出发求取射线与目标物体的AABB的x、y面的交点,射线r(t)表达式为:
式中,o为像素点坐标;为像素点和镜头中心连线方向的单位向量;t为光线传播距离;
通过交点关系得出与目标物体AABB的交点ti=max[tmin],to=min[tmax];ti代表射线进入AABB时的传播距离;to代表射线离开AABB时的传播距离;tmin为射线与AABB平行面进入交点距离;tmax代表射线与AABB平行面离开交点距离;当且仅当ti<to时,该像素判定成有效像素,其他条件均为无效像素;有效像素是指该像素与光心连线的延长线与场景中目标物体的AABB相交;无效像素是指该像素与光心连线的延长线未与场景中目标物体的AABB相交。提出有效像素筛选方法的目的是判定该像素是否为有效像素作为初步筛选可以加快目标物体筛选速度提高运行效率。
1.2根据几何关系确定像素位置
如图4所示:本发明以AABB的后平面为例对像素位置进行描述,利用HO和WO描述平面上的一点,其中WO是指该点与水平面之间的距离,WO是指该点偏离目标物体中轴线的距离,该点对应的像素平面点的横纵坐标为(imav,imau),imav表达为:
式中,相机透镜中心与目标点连线记作ι,δhon代表相机光轴与l之间的夹角,其值表达为:
同理,对于imau的计算,其表达式为:
式中,RSx,RSy为CMOS的横纵向分辨率,θI为相机光轴与竖直线的夹角,(xc,yc,zc)为相机相对于世界坐标系的位置信息,(xT,yT)为目标物相对于世界坐标系的位置信息,为目标物的长度、宽度和高度,f为相机焦距;
通过测试场景几何位置关系得出(imav,imau),该值作为相机几何模型的输出,将作为相机物理模型的输入,通过物理模型输出该位置像素。
2.相机物理模型构建
相机物理模型构建包括:
2.1.基于光线追踪计算理想情况下的像素强度;
相机物理模型是基于光线追踪计算相机几何模型输出的像素位置的像素数值,光线追踪是将场景中的渲染任务拆分成从相机出发的若干条光线与场景的相交,根据交点处的表面材质、法向量等信息并结合光源信息计算像素强度。
2.1.1光源分析
光源是像素计算的主要影响因素,光源辐射强度I(单位:瓦特/立体角)是指单位时间内在单位立体角上的光通量Q(单位:瓦特),表达式为:
式中,h代表普朗克常量;c代表光速;λ(t)代表光源随时间变化的波长表达式;Ω代表立体角;φ代表光源功率;
智能汽车常行驶在太阳光条件中,由于太阳距离相机感知的目标物体距离较远,可将太阳光抽象成点光源,点光源的辐射范围为半径为r的球形,对于该球面上的有限面积A接收到的光源功率,称为辐照度E,其表达式为:
式中,θ代表入射光线和物体表面法向量之间夹角;r代表点光源与目标物体之间的距离。
2.1.2目标物体物理模型
场景中的目标物体物理模型对于智能汽车相机传感器而言,需要考虑目标物体的光学反射特征,该特征也决定了获取目标物对应像素的大小。场景中的目标物体接收到光源辐射的辐照度E后,根据目标物体的表面的法向量和材质特性,入射光线的性质会发生改变,一般而言光强会变弱、波长会根据物体材质发生变化且传播方向会发生改变。双向反射分布函数(Bidirectional Reflectance Distribution Function,BRDF)用于描述材质表面在不同入射角度和出射角度下的反射率,表达式为:
式中,L(αrr)代表目标物体表面辐射度,单位为瓦特/平方米*方位角;E(αii)代表目标物体表面辐照度,单位为瓦特/平方米;α和β描述入射和反射光线的角度关系。
2.1.3相机模型
如图5所示:首先建立目标物体表面辐射度L(αrr)与图像辐照度EI之间的关系,对于面积为dAi的像素平面,从镜头中心对应该平面的立体角dωi与对应目标物体面积dAs的立体角dωs大小相同,因此根据立体角的定义得出:
dAi与dAs的比例关系如下:
式中,α为对应像素与目标点连线和光轴之间的夹角;θ为镜头中心与像素对应点连线和目标物体该点法向量之间的夹角;f为相机焦距;z为目标物体特征点到镜头中心的水平距离;该特征点对于相机透镜平面的立体角dωL表达为:
式中,D为相机镜头直径;
根据能量守恒定律可知,镜头从dAs接受到的光通量与投影到dAi像素平面的光通量相同,则图像辐照度EI表达为:
EI·dAi=L·(dAs·cosθ)·dωL (12)
将式(10-11)带入到式(12)中得出图像辐照度EI的最终表达式为:
数字相机会将该光信号转化为电荷信号,对于图像传感器上的每个感光单元来说,其收到图像辐照度后由光电效应释放出的电子个数Ie表示为:
Ie=T∫EI·S·q(λ)dλ (14)
式中,T为积分时间;S表示感光单元内的灵敏度空间波动;q(λ)表示相机的光电转换函数;在这之后感光单元内产生的电荷信号经由放大电路进行放大,并经由模数转换器输出数字信号缓存在存储单元,输出的量为DN,该数字信号是相机的原始响应值(RawResponse,RR),表达式为:
式中,g′代表模拟电路的增益倍数;Vos代表偏置电压;η代表模数转化的量化步长;然而对于RR而言无法直接用于图像处理算法进而处理,需要进行一系列后处理算法输出最终的RGB三通道图像信息,具体的后处理步骤包括线性处理、白平衡变换、色彩插值、色彩空间转换、亮度校正与伽马校正才能输出最终输出的色彩图像。
如图6所示:第一步是线性处理,由于不同相机厂商对于RR存储的上下限都具有不同取值,在选择对应取值时候,应当注意模拟相机的范围,本发明将下限定义为black,上限定义为saturation,则线性处理过程得到的图像RRLin表示为:
第二步是白平衡处理,该过程主要是对RGB三个通道乘上不同的增益系数,以补偿因为三种不同颜色滤波片具有不同光谱灵敏度带来的影响,若在该步骤完全不考虑图像的亮度处理,每一个通道乘以的系数是完全等比例的,则图像颜色的变化影响是等效的。一般来说,G通道的增益设定为1,通过改变R和B通道两个增益进行图像的白平衡处理,假设对应这两个通道的增益设定为gainR和gainB,则对于色彩滤波片为[RGGB]排列而言,白平衡处理矩阵为:
第三步是色彩插值,也称为去马赛克化处理,通过白平衡处理得到了一维的具有图像矩阵,该步骤为了获取图像信息,需要确定每一个像素位置对应的RGB三通道取值。
如图7所示,以图7中B像素为例,该色彩滤波片为[RGGB]排列,该像素的位置为(i,j),则该位置的B通道取值取B像素值,该位置的R通道取值为周围四个R通道取值的平均值,G通道取值也同理可得,表达式为:
其他位置的RGB值同理求得,通过该步骤得到了三维图像数据。
第四步是色彩空间转换,色彩空间会随着显示设备的不同输出不同的值,该值主要由Ac2s矩阵决定,Ac2s由两部分组成Ac←x和Ax←s,表达式为:
Ac2s=(Ac←x·Ax←s)-1 (19)
式中Ax←s在国际照明委员会(CIE)公布的标准中查到:
/>
而对于Ac←x则根据不同的相机型号进行确认。
第五步是亮度校正与伽马校正,在该步骤之前,进行的操作都保证图像信息与场景呈现线性分布,但是对于实际的智能汽车应用而言,需要保证一定的亮度信息,该步骤主要通过对色彩空间转化后的图像进行全局亮度调整实现的,具体的实现效果如图8所示。
2.2.基于降雨模糊模型确定像素强度突变;
所述的降雨模型构建:
降雨是一种运动速度较快且具有随机分布的不同形状、大小的气象状态。对于形状、大小和速度,已经有大量研究人员给出相应的经验公式,其中常见的降雨雨滴直径不超过1mm,因此将雨滴近似成球形透明物体作为本发明研究的前提。同时,前人的研究经验表明降雨环境对图像的影响主要表现在像素强度的突变,同时雨滴具有强随机性,无法按照固定的规律出现在相机视角内。本发明为了建立降雨环境对车载相机产生影响的数学模型,分别对雨滴具有的粒子尺度分布、降雨有效分布、空间随机干扰和像素强度突变四种真实特性进行建模。并利用该雨滴模糊数学模型对相机的DN信息进行处理,建立用于降雨环境智能汽车测试的相机模型。
雨滴粒子尺度分布是指不同降雨量的降雨环境中不同尺寸的雨滴会具有不同的数量分布,以描述不同降雨量中不同大小雨滴的数量分布情况;降雨有效分布是指对于相机传感器而言,并非所有的雨滴干扰都对智能汽车功能产生影响,需要根据测试场景中目标物体的几何属性确定雨滴影响的范围;空间随机干扰是指雨滴对像素强度的影响具有随机性,在有效分布的基础上需要对该随机性进行建模以准确描述雨滴影响图像像素强度的位置与时刻随机性;强度突变特性是指图像中出现雨滴的位置对应的像素强度会相较于无雨滴位置产生突变,具体表现在该位置的像素强度大于不存在降雨环境下的像素强度。本发明采用拒绝采样对雨滴粒子尺度分布进行建模;利用有效区域对雨滴的有效分布进行建模;利用混沌映射对降雨的随机分布进行建模;利用高斯脉冲对雨滴对像素强度造成的强度突变进行建模,以模拟真实降雨环境,应用于智能汽车测试验证,如图9所示。
2.2.1有效分布模拟
对于智能汽车测试而言,并非单位体积空间内的所有雨滴都会对测试结果造成影响,需要确定有效影响相机功能的区域,以量化对测试结果的影响程度。本发明定义该区域为有效分布区域,其体积数值记作Vin,对于车辆作为目标的情况下,该区域通过从相机镜头中心为原点向目标物体的AABB进行映射,最先相交的面与原点连线构成的两个三角锥体积就是对应的Vin,如图10所示,图中o-ABCD和o-DEFC体积加和构成Vin。利用该值与雨滴粒子分布曲线N(ara)相乘得到在该范围内不同雨滴尺寸对应的分布情况。
2.2.2随机干扰模拟
有效分布确定了雨滴影响相机感知的区域范围,但不同尺寸的雨滴并非按照均匀分布在Vin中,因此需要对空间随机性进行建模,本发明选择混沌映射的方法对位置随机性进行建模,具体的混沌映射表达式为:
y=δsin(πxi) (21)
式中,δ是系统参数,δ∈[0,1],当δ∈(0.87,0.93)∪(0.95,1)时出现混沌现象;将Vin中点的x、y、z坐标同时进行混沌映射得到对应的随机分布结果,如图11所示,图中模拟的是单位体积范围内不同雨量的雨滴的随机位置分布。
2.2.3雨滴粒子尺度模拟
如图12所示,雨滴半径大小ara分布常在0.1mm和3.5mm之间变化,较小半径的雨滴呈现球形分布,随着雨滴半径的增大,雨滴形状逐渐接近椭球形。根据Beard提出的对雨滴形状的经验模型描述,雨滴半径小于2mm时,大部分雨滴呈现透明球形,因此本发明将雨滴形状假设成球形进行分析。对于雨滴的竖直向下运动速度vra采用经验公式进行描述:
在该经验公式中,单位对应关系为:ara单位为米;vra单位为米每秒。
而对于雨滴的大小会在一定空间内呈现随机的分布N(ara),在该分布的输入为雨滴直径2ara,该值描述了不同雨滴直径在一定空间内的分布个数分布情况,该分布情况利用对数正态分布表达式进行描述:
式中,σ代表雨滴尺寸的标准差;NT代表单位体积内模拟的雨滴总数;Dg代表雨滴直径的平均值。
雨滴粒子尺度模拟采用拒绝抽样法进行抽样,使用正态分布进行辅助筛选,将N(ara)记作p(x),q(x)作为辅助函数满足标准正态分布,选取M值使p(x)一直处于Mq(x)的下方。经过实际实验表明,对于小雨M值取为9.2*103,中雨的M值取为1.13*104,大雨的M值取为2.13*105。随机取样x(i)~q(x),u~U(0,1),对满足下式的采样进行接受,否则拒绝:
雨滴粒子尺度模拟的结果如图13所示。
2.2.4强度突变模拟
由于在相机采样时间内,雨滴的运动会对一段像素强度造成影响,产生“雨带”效应,如图14所示,具体造成影响的像素个数Ieff通过以下表达式进行描述:
式中,τ代表被测相机帧率;dis代表雨滴与相机镜头中心的水平距离。
对于一个像素点而言,通过有效分布模拟可以确定影响该像素点的雨滴个数为Ie,则该像素点由于降雨造成的影响表达为:
式中,ΔI为雨滴对像素强度的影响值,ΔImax为雨滴对像素强度影响的最大值,Ie为影响一个像素点强度的雨滴个数,Gc为高斯脉冲模型;
通过前三个模型分别描述了雨滴的分布有效性、随机性和粒子尺度分布特性,本节对雨滴实际造成影响的像素强度突变进行描述。雨滴由于其内部液体反射特性,使雨滴吸收到较大视场角的光线,导致在图像的雨滴位置形成像素强度突变,且该突变值独立于环境背景光照影响,该值的上限近似相同。根据上述性质,本文将雨滴对像素强度的影响Gc通过高斯脉冲模型对其进行建模。高斯脉冲可以表达成:
Gc(x)=ε*exp[(x)2/(2σg 2)] (27)
式中,ε为高斯脉冲的峰值,σg为高斯脉冲的标准差;ε是描述突变强度的重要参数,该参数的取值和雨滴(xdrop,ydrop,zdrop)与相机(xc,yc,zc)的距离Dis有关,表达式为:
式中,Tc是相机曝光时间;τra是雨滴经过一个像素对应距离的时间;Nc是相机的F数;Lr和Lb分别代表存在降雨和无降雨情况下的场景辐照度;计算每一个Ie对应的A,并带入式(26)中计算得出该像素点对应的ΔI;同时在计算雨滴对像素强度影响的最大值ΔImax时,将ara选择模拟雨滴中的平均值;最终确定每一个像素受到降雨环境的影响ΔI,输出最后的图像信息。
本实施例面向智能汽车降雨环境测试的相机模型应用:
本发明提出的模型应用于智能汽车降雨环境的测试,测试的目的是搜索待测对象的边缘场景,边缘场景是指由于待测对象的功能受限而导致无法满足预期功能的测试场景。针对降雨测试环境,在已知光源信息、降雨信息、位置信息和待测相机信息的前提下,通过本发明提出的方法可以超前预测对应的场景是否属于边缘场景,判断结果既可以作为虚拟仿真测试的先验场景参数设置,也可以直接作为封闭场地实车测试的场景布置方案,降低测试成本、缩短测试周期并提高了测试效率。本发明提出的相机模型简化表达式:
Score=CM(光源信息,降雨信息,位置信息,待测相机信息) (31)
式中,CM()代表相机模型;Score代表该场景的测试价值;Score主要通过模型输出的ΔI进行映射,利用本发明的方法可以确定图像每一个像素点位置对应的ΔI,并利用相机后处理后输出的三通道原始图像信息对待测算法进行测试。

Claims (5)

1.一种面向降雨复杂环境智能汽车测试的相机模型构建方法,其特征在于:包括以下步骤:
(1)相机几何模型构建:
相机几何模型用于确定智能汽车测试场景中目标物体在相机成像平面内的像素位置;
首先利用轴对齐包围盒对目标物体的几何形状特征信息进行简化,其次基于相机的安装参数和内置参数确定在相机成像面内目标物体对应的像素位置,作为相机物理模型的输入;
(2)相机物理模型构建:
相机物理模型构建包括:
(2.1)基于光线追踪计算理想情况下的像素强度;
基于光线追踪计算相机几何模型输出的像素位置的像素数值,光线追踪是将场景中的渲染任务拆分成从相机出发的若干条光线与场景的相交,根据交点处的表面材质、法向量信息并结合光源信息计算像素强度,包括步骤:
(2.1.1)光源分析;
(2.1.2)目标物体物理模型构建;
(2.1.3)相机模型构建;
(2.2)基于降雨模糊模型确定像素强度突变;
所述的降雨模糊模型构建:
为了建立降雨环境对车载相机产生影响的数学模型,分别对雨滴具有的粒子尺度分布、降雨有效分布、空间随机干扰和像素强度突变四种真实特性进行建模,并利用该雨滴模糊数学模型对相机的DN信息进行处理,建立用于降雨环境智能汽车测试的相机模型,包括步骤:
(2.2.1)有效分布模拟;
(2.2.2)随机干扰模拟;
(2.2.3)雨滴粒子尺度模拟;
(2.2.4)强度突变模拟。
2.根据权利要求1所述的一种面向降雨复杂环境智能汽车测试的相机模型构建方法,其特征在于:步骤(1)中相机几何模型构建步骤包括:
(1.1)利用AABB简化目标物体特征:
通过轴对齐包围盒AABB对像素空间进行初筛,确定可能提供目标物体关键特征的像素群:从每一个图像平面的像素点出发求取射线与目标物体的AABB的x、y面的交点,射线r(t)表达式为:
式中,r(t)为图像平面的像素点与镜头连线构成的射线;o为像素点坐标;为像素点和镜头中心连线方向的单位向量;t为光线传播距离;
通过交点关系得出与目标物体AABB的交点ti=max[tmin],to=min[tmax];ti代表射线进入AABB时的传播距离;to代表射线离开AABB时的传播距离;tmin为射线与AABB平行面进入交点距离;tmax代表射线与AABB平行面离开交点距离;当且仅当ti<to时,该像素判定成有效像素,其他条件均为无效像素;有效像素是指该像素与光心连线的延长线与场景中目标物体的AABB相交;无效像素是指该像素与光心连线的延长线未与场景中目标物体的AABB相交;
(1.2)根据几何关系确定像素位置:
利用HO和WO描述目标平面上的一点,其中HO是指该点与水平面之间的距离,WO是指该点偏离目标物体中轴线的距离,该点对应的像素平面点的横纵坐标为(imav,imau),inav表达为:
式中,相机透镜中心与目标点连线记作ι,δhon代表相机光轴与ι之间的夹角,其值表达为:
对于imau的计算,其表达式为:
式中,RSx,RSy为CMOS的横纵向分辨率,θI为相机光轴与竖直线的夹角,(xc,yc,zc)为相机相对于世界坐标系的位置信息,(xT,yT)为目标物相对于世界坐标系的位置信息,为目标物的长度、宽度和高度,f为相机焦距;
通过测试场景几何位置关系得出(imav,imau),该值作为相机几何模型的输出,将作为相机物理模型的输入,通过物理模型输出该位置像素。
3.根据权利要求1或2所述的一种面向降雨复杂环境智能汽车测试的相机模型构建方法,其特征在于:步骤(2.1)基于光线追踪计算理想情况下的像素强度步骤包括:
(2.1.1)光源分析:
光源辐射强度I是指单位时间内在单位立体角上的光通量Q,表达式为:
式中,h代表普朗克常量;c代表光速;λ(t)代表光源随时间变化的波长表达式;Ω代表立体角;φ代表光源功率;
智能汽车常行驶在太阳光条件中,由于太阳距离相机感知的目标物体距离较远,将太阳光抽象成点光源,点光源的辐射范围为半径为r的球形,对于该球面上的有限面积A接收到的光源功率,称为辐照度E,其表达式为:
式中,θ代表入射光线和物体表面法向量之间夹角;r代表点光源与目标物体之间的距离;
(2.1.2)目标物体物理模型构建:
双向反射分布函数用于描述材质表面在不同入射角度和出射角度下的反射率,表达式为:
式中,L(αrt)代表目标物体表面辐射度,单位为瓦特/平方米*方位角;E(αii)代表目标物体表面辐照度,单位为瓦特/平方米;α和β描述入射和反射光线的角度关系;
(2.1.3)相机模型构建:
首先建立目标物体表面辐射度L(αrr)与图像辐照度EI之间的关系,对于面积为dAi的像素平面,面积为dAs的目标物体,从镜头中心对应像素平面的立体角dωi与中心对应目标物体的立体角dωs大小相同,根据立体角的定义得出:
得出dAi与dAs的比例关系:
式中,α为对应像素与目标点连线和光轴之间的夹角;θ为镜头中心与像素对应点连线和目标物体该点法向量之间的夹角;f为相机焦距;z为目标物体特征点到镜头中心的水平距离;该特征点对于相机透镜平面的立体角dωL表达为:
式中,D为相机镜头直径;
根据能量守恒定律可知,镜头从dAs接受到的光通量与投影到dAi像素平面的光通量相同,则图像辐照度EI表达为:
EI·dAi=L·(dAs·cosθ)·dωL
将dAi与dAs的比例关系式和特征点对于相机透镜平面的立体角dωL关系式带入到上式中得出图像辐照度EI的最终表达式为:
数字相机会将该光信号转化为电荷信号,对于图像传感器上的每个感光单元来说,其收到图像辐照度后由光电效应释放出的电子个数Ie表示为:
Ie=T∫EI·S·q(λ)dλ
式中,T为积分时间;S表示感光单元内的灵敏度空间波动;q(λ)表示相机的光电转换函数;在这之后感光单元内产生的电荷信号经由放大电路进行放大,并经由模数转换器输出数字信号缓存在存储单元,输出的量为DN,该数字信号是相机的原始响应值,表达式为:
式中,g′代表模拟电路的增益倍数;Vos代表偏置电压;η代表模数转化的量化步长;然而对于相机的原始响应值需要进行后处理算法输出最终的RGB三通道图像信息,所述的后处理步骤包括线性处理、白平衡变换、色彩插值、色彩空间转换、亮度校正与伽马校正,输出最终的色彩图像。
4.根据权利要求3所述的一种面向降雨复杂环境智能汽车测试的相机模型构建方法,其特征在于:所述的后处理步骤包括:
第一步、线性处理,将下限定义为black,上限定义为saturation,则线性处理过程得到的图像RRLin表示为:
第二步、白平衡处理,G通道的增益设定为1,通过改变R和B通道两个增益进行图像的白平衡处理,对应这两个通道的增益设定为gainR和gainB,则对于色彩滤波片为[RGGB]排列而言,白平衡处理矩阵为:
第三步、色彩插值,即去马赛克化处理,通过白平衡处理得到了一维的具有图像矩阵,确定每一个像素位置对应的RGB三通道取值,表达式为:
B(i,j)=B(i,j)
通过该步骤得到了三维图像数据;
第四步、色彩空间转换,色彩空间值由Ac2s矩阵决定,Ac2s由两部分Ac←x和Ax←s组成,表达式为:
Ac2s=(Ac←x·Ax←s)-1
式中Ax←s在国际照明委员会(CIE)公布的标准中查到:
对于Ac←x则根据不同的相机型号进行确认;
第五步、亮度校正与伽马校正,该步骤通过对色彩空间转化后的图像进行全局亮度调整。
5.根据权利要求1所述的一种面向降雨复杂环境智能汽车测试的相机模型构建方法,其特征在于:步骤(2.2)基于降雨模糊模型确定像素强度突变步骤包括:
(2.2.1)有效分布模拟:
定义有效影响相机功能的区域为有效分布区域,其体积数值记作Vin,利用该值与雨滴粒子分布曲线N(ara)相乘得到在该范围内不同雨滴尺寸对应的分布情况;
(2.2.2)随机干扰模拟:
选择混沌映射的方法对位置随机性进行建模,所述的的混沌映射表达式为:
y=δsin(πxi)
式中,δ是系统参数,δ∈[0,1],当δ∈(0.87,0.93)∪(0.95,1)时出现混沌现象;将Vin中点的x、y、z坐标同时进行混沌映射得到对应的随机分布结果;
(2.2.3)雨滴粒子尺度模拟:
将雨滴形状假设成球形进行分析,对于雨滴的竖直向下运动速度vra采用经验公式进行描述:
在该经验公式中,ara为雨滴半径,对应的单位关系:ara单位为毫米,vra单位为米每秒;
而对于雨滴的大小会在一定空间内呈现随机的分布N(ara),在该分布的输入为雨滴直径2ara,该值描述了不同雨滴直径在一定空间内的分布个数分布情况,该分布情况利用对数正态分布表达式进行描述:
式中,σ代表雨滴尺寸的标准差;NT代表单位体积内模拟的雨滴总数;D为相机镜头直径;Dg代表雨滴直径的平均值;
雨滴粒子尺度模拟采用拒绝抽样法进行抽样,使用正态分布进行辅助筛选,将N(ara)记作p(x),q(x)作为辅助函数满足标准正态分布,选取M值使p(x)一直处于Mq(x)的下方;随机取样x(i)~q(x),u~U(0,1),对满足下式的采样进行接受,否则拒绝:
(2.2.4)强度突变模拟:
由于在相机采样时间内,雨滴的运动会对一段像素强度造成影响,产生“雨带”效应,造成影响的像素个数通过以下表达式进行描述:
式中,Ieff为一滴雨影响像素强度的个数;τ代表被测相机帧率;dis代表雨滴与相机镜头中心的水平距离;
对于一个像素点而言,通过有效分布模拟确定影响该像素点的雨滴个数为Ie,则该像素点由于降雨造成的影响ΔI表达为:
式中,ΔImax为雨滴对像素强度影响的最大值,Ie为影响一个像素点强度的雨滴个数,Gc为高斯脉冲模型;
将雨滴对像素强度的影响通过高斯脉冲模型对其进行建模,高斯脉冲表达为:
Gc(x)=ε*exp[(x)2/(2σg 2)]
式中,ε为高斯脉冲的峰值,σg为高斯脉冲的标准差;ε是描述突变强度的重要参数,该参数的取值和雨滴(xdrop,ydrop,zdrop)与相机(xc,yc,zc)的距离DiS有关,表达式为:
式中,Tc是相机曝光时间;τra是雨滴经过一个像素对应距离的时间;Nc是相机的F数;Lr和Lb分别代表存在降雨和无降雨情况下的场景辐照度;计算每一个Ie对应的x,并带入式中计算得出该像素点对应的ΔI;同时在计算雨滴对像素强度影响的最大值ΔImax时,将ara选择模拟雨滴中的平均值;最终确定每一个像素受到降雨环境的影响ΔI,输出最后的图像信息。
CN202310674650.3A 2023-06-08 2023-06-08 一种面向降雨复杂环境智能汽车测试的相机模型构建方法 Pending CN116704044A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310674650.3A CN116704044A (zh) 2023-06-08 2023-06-08 一种面向降雨复杂环境智能汽车测试的相机模型构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310674650.3A CN116704044A (zh) 2023-06-08 2023-06-08 一种面向降雨复杂环境智能汽车测试的相机模型构建方法

Publications (1)

Publication Number Publication Date
CN116704044A true CN116704044A (zh) 2023-09-05

Family

ID=87830742

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310674650.3A Pending CN116704044A (zh) 2023-06-08 2023-06-08 一种面向降雨复杂环境智能汽车测试的相机模型构建方法

Country Status (1)

Country Link
CN (1) CN116704044A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116972914A (zh) * 2023-09-22 2023-10-31 华夏天信智能物联股份有限公司 变频一体机智能测试方法和系统
CN117309429A (zh) * 2023-10-10 2023-12-29 济南辰远科技有限公司 智能网联汽车的淋雨试验检测平台

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116972914A (zh) * 2023-09-22 2023-10-31 华夏天信智能物联股份有限公司 变频一体机智能测试方法和系统
CN116972914B (zh) * 2023-09-22 2023-12-26 华夏天信智能物联股份有限公司 变频一体机智能测试方法和系统
CN117309429A (zh) * 2023-10-10 2023-12-29 济南辰远科技有限公司 智能网联汽车的淋雨试验检测平台
CN117309429B (zh) * 2023-10-10 2024-05-17 济南辰远科技有限公司 智能网联汽车的淋雨试验检测平台

Similar Documents

Publication Publication Date Title
CN113111974B (zh) 基于深度典型相关分析的视觉-激光雷达融合方法及系统
CN116704044A (zh) 一种面向降雨复杂环境智能汽车测试的相机模型构建方法
CN111694010B (zh) 一种基于视觉与激光雷达融合的路侧车辆识别方法
EP2287638B1 (en) Method and device for evaluation of solar radiation intensity
CN101281142B (zh) 一种测量大气能见度的方法
Morrison et al. A novel method to obtain three-dimensional urban surface temperature from ground-based thermography
CN116685873A (zh) 一种面向车路协同的感知信息融合表征及目标检测方法
CN111563962A (zh) 一种基于几何辐射一体化采样的遥感图像仿真方法
CN103913148A (zh) 航天tdiccd相机全链路数值仿真方法
CN110006463A (zh) 一种光学遥感卫星的在轨绝对辐射定标方法及系统
CN107993281B (zh) 一种空间目标可见光光学特性仿真方法
CN105095608A (zh) 一种卫星杂散光的测试方法
CN107985189A (zh) 面向高速驾驶环境下的驾驶员变道深度预警方法
CN113902663A (zh) 一种自动适应天气的空中小目标动态红外仿真方法及装置
CN117269940B (zh) 点云数据生成方法、激光雷达的感知能力验证方法
CN108318458B (zh) 一种适用于不同天气条件下的室外典型地物pBRDF的测量方法
Li et al. LiDAR intensity correction for road marking detection
CN103824260A (zh) 一种高分辨率遥感图像薄雾快速去除技术
US20240212101A1 (en) Image fusion method, electronic device, unmanned aerial vehicle and storage medium
CN110728748A (zh) 基于半球正交函数的渲染方法
CN104933302A (zh) 一种无人机载荷航空遥感仿真实现方法以及系统
CN109211408B (zh) 一种基于半实物的深空红外点目标成像仿真方法
CN108132096A (zh) 一种基于激光雷达的林窗太阳辐射监测方法
CN208505578U (zh) 一种车载光电设备高原环境性能影响分析试验系统
CN103411896A (zh) 低轨空间碎片超低色散光谱特征获取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination