CN116309137A - 一种多视点图像去模糊方法、装置、系统和电子介质 - Google Patents
一种多视点图像去模糊方法、装置、系统和电子介质 Download PDFInfo
- Publication number
- CN116309137A CN116309137A CN202310183533.7A CN202310183533A CN116309137A CN 116309137 A CN116309137 A CN 116309137A CN 202310183533 A CN202310183533 A CN 202310183533A CN 116309137 A CN116309137 A CN 116309137A
- Authority
- CN
- China
- Prior art keywords
- image
- event
- nerf
- input
- event data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000009877 rendering Methods 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 32
- 238000004590 computer program Methods 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 8
- 239000013307 optical fiber Substances 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 239000002245 particle Substances 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 238000002834 transmittance Methods 0.000 claims description 2
- 238000011166 aliquoting Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 230000005855 radiation Effects 0.000 description 5
- 230000001537 neural effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 210000005036 nerve Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000011664 nicotinic acid Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本公开的实施例公开了一种多视点图像去模糊方法、装置、系统和电子介质。该方法的一具体实施方式包括:首先,通过事件流的引导构建相机姿态估计框架,从而获得模糊图像的准确拍摄位姿作为NeRF输入,然后,通过模糊渲染损失和事件渲染损失以进一步模拟真实的模糊过程,从而更好的实现物体或场景的三维表示学习。该实施方式有效地利用了事件和图像之间的内部关系,不仅实现了图像去模糊,而且实现了高质量的新视角图像渲染。
Description
技术领域
本公开的实施例涉及三维重建神经辐射场与事件相机领域,具体涉及一种多视点图像去模糊方法、装置、系统和电子介质。
背景技术
随着神经辐射场(NeRF)的提出,神经3D表示和新视角图像合成任务在过去几年取得了长足的进步。NeRF将3D位置和2D视角方向作为输入,并使用物体或场景的多视角图像作为监督来学习神经3D表示,将其参数化为多层感知器(MLP)。为了生成新视角图像,NeRF使用体素渲染技术,利用网络输出(颜色和密度)来渲染每个像素,从而渲染得到高保真和高还原度的图像。
NeRF能达到良好效果的前提是输入图像质量足够高(无模糊、光照充足),但在很多现实场景中,很难得到高质量的图像。例如,手持相机抖动会产生拍摄照片的运动模糊,尤其是在弱光场景下,需要延长曝光时间才能得到符合人眼观看习惯的照片,这导致拍摄图像更容易出现模糊。Deblur NeRF定位到这个问题并提出了Deformable Sparse Kernel来模拟图像模糊的过程,但是当相机在所有视图中出现一致性模糊或者模糊非常严重时,这种方法就会失效。
与仅依赖模糊图像的方法相比,结合附加信息来指导神经辐射场学习过程是更加有效的。事件相机是一种新型的仿生视觉传感器,它异步测量每个像素的亮度变化。与传统的基于帧的相机相比,事件相机可以以高时间分辨率记录场景的信息,这对于建模模糊过程很重要。因此,基于事件的图像去模糊成为近年来热门的研究课题。
在发明中将事件流引入到神经辐射场的学习过程中,提出了ENeRF,通过模糊图像及其对应的事件数据,来学习物体和场景的清晰3D表示。基于NeRF框架,首先,使用事件估计模糊图像的位姿序列。在训练过程中,可以用上述位姿序列渲染合成模糊图像并将其与输入模糊图像进行比较以获得渲染损失。此外,事件的产生是随着位姿的变化而计算的,并以实际事件数据作为监督,构建事件损失以优化调整神经辐射场的学习。由于事件数据的增强,本公开的一些实施例可以在输入图像模糊的情况下,学习到一个清晰的NeRF,它不仅实现了输入图像的去模糊,而且在输入图像质量有偏差时实现了高质量的新视角图像生成。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了多视点图像去模糊方法、装置、系统和电子介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
根据上述实际需求和关键问题,本公开的一些实施例的目的在于:提出一种多视点图像去模糊方法,输入物体或场景的多视角下模糊图与事件流,通过事件辅助进行初始位姿估计,并利用事件与模糊图像进行联合强化监督,最终学习得到清晰的NeRF,实现输入图像去模糊与高质量新视角图像生成。
第一方面,本公开的一些实施例提供了一种多视点图像去模糊方法,该方法包括:步骤S 100,针对一个场景或者物体,给定多个视角下模糊图像输入,以及拍摄该模糊图像曝光时间内的事件数据。对于每个视角下的模糊图像和事件数据,将事件数据按时间等分分组,然后使用EDI算法恢复得到初始去模糊图。步骤S200,将得到的全部初始去模糊图,输入COLMAP工具,来得到每个视角下初始去模糊图的拍摄位姿。步骤S300,对于每个视角,将得到的位姿输入NeRF网络,渲染得到上述视角下的多帧清晰图像,利用多帧清晰图像合成模糊图,并以与原始输入模糊图的差异作为模糊损失函数;同时利用多帧清晰图像,随机取不同时刻的同一像素点,计算事件数据的理论值,并以与真实事件数据的差异作为事件损失函数,反向传播调整NeRF网络参数,学习得到场景或物体的三维隐式表达。步骤S400,给定相机位姿,输入训练得到的NeRF网络,即可渲染得到该位姿下场景或物体的清晰图像。
第二方面,本公开的一些实施例提供了一种多视点图像去模糊方法装置,装置包括:第一输入单元,被配置成针对一个场景或者物体,给定多个视角下模糊图像输入,以及拍摄该模糊图像曝光时间内的事件数据,对于每个视角下的模糊图像和事件数据,将事件数据按时间等分分组,然后使用EDI算法恢复得到初始去模糊图;第二输入单元,被配置成将得到的全部初始去模糊图,输入COLMAP工具,来得到每个视角下初始去模糊图的拍摄位姿;第三输入单元,被配置成对于每个视角,将得到的位姿输入NeRF网络,渲染得到上述视角下的多帧清晰图像,利用多帧清晰图像合成模糊图,并以与原始输入模糊图的差异作为模糊损失函数;同时利用多帧清晰图像,随机取不同时刻的同一像素点,计算事件数据的理论值,并以与真实事件数据的差异作为事件损失函数,反向传播调整NeRF网络参数,学习得到场景或物体的三维隐式表达;第四输入单元,被配置成给定相机位姿,输入训练得到的NeRF网络,即可渲染得到该位姿下场景或物体的清晰图像。
第三方面,本公开的一些实施例提供了一种电子系统,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
第四方面,本公开的一些实施例提供了一种计算机电子介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是根据本公开的多视点图像去模糊方法的一些实施例的流程图;
图2是根据本公开的多视点图像去模糊方法的一些实施例的总流程图;
图3是根据本公开的多视点图像去模糊方法的一些实施例的NeRF网络模块示意图;
图4是根据本公开的多视点图像去模糊方法的一些实施例的步骤S300的流程图。
图5是根据本公开的多视点图像去模糊装置的一些实施例的结构示意图;
图6是适于用来实现本公开的一些实施例的电子系统的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1示出了根据本公开的多视点图像去模糊方法的一些实施例的流程100。该多视点图像去模糊方法,包括以下步骤:
步骤S100,针对一个场景或者物体,给定多个视角下模糊图像输入,以及拍摄该模糊图像曝光时间内的事件数据。对于每个视角下的模糊图像Iblurry和事件数据,将事件数据按时间等分为b组然后使用EDI算法恢复得到模糊图像对应的曝光开始时刻的清晰图像I0为:
而曝光过程中任意时刻的清晰图像Ik为:
其中,b为事件分组的数量,C为事件相机阈值,e表示自然常数,Bi表示第i个事件分组。
图4示出了本公开的多视点图像去模糊方法的一些实施例的步骤S300的流程:
步骤S310,假设一条从相机像素点射出的光线,经过NeRF网络渲染得到相机像素点的颜色估计值。NeRF网络模块示意图如图3所示。以三维位置信息O和二维方向信息d为NeRF网络的输入,输出得到颜色信息C和密度σ:
(c,σ)=Fθ(γo(o),γd(d))。
其中,Fθ表示NeRF网络中的多层感知机,γ表示位置信息编码器:
其中,M表示超参,sin()表示正弦函数,cos()表示余弦函数,π表示圆周率。
假设一条从相机射出的光线r(t)=o+ld,ln和lf分别表示距离相机最近和最远的边界,将[ln,lf]平均分成N个独立的小块,则该光纤经过的每个小块都有NeRF网络输出的颜色信息C和密度σ,那么该条光线最终在相机上像素的颜色为:
其中,δi=li+1-li表示每个小块的长度,Ti表示从最近边界ln到该采样点的所有粒子的透光率,exp()表示以e为底的指数函数。
步骤S320,计算位姿下的颜色估计值的均值,并与输入模糊图像计算均方误差作为模糊损失函数。每个视角下有b个对应的位姿根据这b个位姿,可以通过NeRF网络渲染得到b个颜色估计值/>模糊损失函数为对应像素点上上述颜色序列的均值与输入模糊图像的均方误差:
步骤S330,随机选择同一像素点下两个不同时刻的颜色预测值转换为灰度值计算事件估计值,并与该像素点的真实事件数量计算均方误差作为事件损失函数。事件损失函数为随机从中选择两个预测值/>然后将所选择两个预测值转为灰度值/>θ为模拟阈值,则像素点x的事件的估计值为:
事件损失为真实事件数量与估计事件数量的均方误差:
其中,x表示相机全部像素点中的任一像素点。
步骤S340,通过反向传播上述两个损失函数的计算结果,优化NeRF网络。
步骤S400,给定相机位姿,输入步骤S300训练得到的NeRF网络,即可渲染得到该位姿下场景或物体的清晰图。
上述步骤S 100-步骤S400的相关内容如图2所示。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种多视点图像去模糊装置的一些实施例,这些装置实施例与图1所示的那些方法实施例相对应,该多视点图像去模糊装置具体可以应用于各种电子系统中。
如图5所示,一些实施例的多视点图像去模糊装置500包括:第一输入单元501、第二输入单元502、第三输入单元503和第四输入单元504。其中,第一输入单元501被配置成针对一个场景或者物体,给定多个视角下模糊图像输入,以及拍摄该模糊图像曝光时间内的事件数据,对于每个视角下的模糊图像和事件数据,将事件数据按时间等分分组,然后使用EDI算法恢复得到初始去模糊图;第二输入单元502被配置成将得到的全部初始去模糊图,输入COLMAP工具,来得到每个视角下初始去模糊图的拍摄位姿;第三输入单元503被配置成对于每个视角,将得到的位姿输入NeRF网络,渲染得到上述视角下的多帧清晰图像,利用多帧清晰图像合成模糊图,并以与原始输入模糊图的差异作为模糊损失函数;同时利用多帧清晰图像,随机取不同时刻的同一像素点,计算事件数据的理论值,并以与真实事件数据的差异作为事件损失函数,反向传播调整NeRF网络参数,学习得到场景或物体的三维隐式表达;第四输入单元504被配置成给定相机位姿,输入训练得到的NeRF网络,即可渲染得到该位姿下场景或物体的清晰图像。
可以理解的是,多视点图像去模糊装置500中记载的诸单元与参考图1描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于多视点图像去模糊装置500及其中包含的单元,在此不再赘述。
下面参考图6,其示出了适于用来实现本公开的一些实施例的电子系统600的结构示意图。本公开的一些实施例中的电子系统可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图3示出的电子系统仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图3所示,电子系统600可以包括处理装置601(例如中央处理器、图形处理器等),其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子系统600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子系统600与其他设备进行无线或有线通信以交换数据。虽然图3示出了具有各种装置的电子系统600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图3中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机电子介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例中记载的计算机电子介质可以是计算机可读信号介质或者计算机可读电子介质或者是上述两者的任意组合。计算机可读电子介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读电子介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读电子介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读电子介质以外的任何计算机电子介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机电子介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtoco1,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机电子介质可以是上述电子系统中所包含的;也可以是单独存在,而未装配入该电子系统中。上述计算机电子介质承载有一个或者多个程序,当上述一个或者多个程序被该电子系统执行时,使得该电子系统:步骤S 100,针对一个场景或者物体,给定多个视角下模糊图像输入,以及拍摄该模糊图像曝光时间内的事件数据,对于每个视角下的模糊图像和事件数据,将事件数据按时间等分分组,然后使用EDI算法恢复得到初始去模糊图;步骤S200,将得到的全部初始去模糊图,输入COLMAP工具,来得到每个视角下初始去模糊图的拍摄位姿;步骤S300,对于每个视角,将得到的位姿输入NeRF网络,渲染得到上述视角下的多帧清晰图像,利用多帧清晰图像合成模糊图,并以与原始输入模糊图的差异作为模糊损失函数;同时利用多帧清晰图像,随机取不同时刻的同一像素点,计算事件数据的理论值,并以与真实事件数据的差异作为事件损失函数,反向传播调整NeRF网络参数,学习得到场景或物体的三维隐式表达;步骤S400,给定相机位姿,输入训练得到的NeRF网络,即可渲染得到该位姿下场景或物体的清晰图像。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言-诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言-诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一输入单元、第二输入单元、第三输入单元和第四输入单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第四输入单元还可以被描述为“给定相机位姿,输入训练得到的NeRF网络,即可渲染得到该位姿下场景或物体的清晰图像的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种多视点图像去模糊方法,包括:
步骤S100,针对一个场景或者物体,给定多个视角下模糊图像输入,以及拍摄该模糊图像曝光时间内的事件数据,对于每个视角下的模糊图像和事件数据,将事件数据按时间等分分组,然后使用EDI算法恢复得到初始去模糊图;
步骤S200,将得到的全部初始去模糊图,输入COLMAP工具,来得到每个视角下初始去模糊图的拍摄位姿;
步骤S300,对于每个视角,将得到的位姿输入NeRF网络,渲染得到所述视角下的多帧清晰图像,利用多帧清晰图像合成模糊图,并以与原始输入模糊图的差异作为模糊损失函数;同时利用多帧清晰图像,随机取不同时刻的同一像素点,计算事件数据的理论值,并以与真实事件数据的差异作为事件损失函数,反向传播调整NeRF网络参数,学习得到场景或物体的三维隐式表达;
步骤S400,给定相机位姿,输入训练得到的NeRF网络,即可渲染得到该位姿下场景或物体的清晰图像。
8.一种多视点图像去模糊装置,包括:
第一输入单元,被配置成针对一个场景或者物体,给定多个视角下模糊图像输入,以及拍摄该模糊图像曝光时间内的事件数据,对于每个视角下的模糊图像和事件数据,将事件数据按时间等分分组,然后使用EDI算法恢复得到初始去模糊图;
第二输入单元,被配置成将得到的全部初始去模糊图,输入COLMAP工具,来得到每个视角下初始去模糊图的拍摄位姿;
第三输入单元,被配置成对于每个视角,将得到的位姿输入NeRF网络,渲染得到所述视角下的多帧清晰图像,利用多帧清晰图像合成模糊图,并以与原始输入模糊图的差异作为模糊损失函数;同时利用多帧清晰图像,随机取不同时刻的同一像素点,计算事件数据的理论值,并以与真实事件数据的差异作为事件损失函数,反向传播调整NeRF网络参数,学习得到场景或物体的三维隐式表达;
第四输入单元,被配置成给定相机位姿,输入训练得到的NeRF网络,即可渲染得到该位姿下场景或物体的清晰图像。
9.一种电子系统,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1至7中任一所述的方法。
10.一种计算机电子介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1至7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310183533.7A CN116309137A (zh) | 2023-02-17 | 2023-02-17 | 一种多视点图像去模糊方法、装置、系统和电子介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310183533.7A CN116309137A (zh) | 2023-02-17 | 2023-02-17 | 一种多视点图像去模糊方法、装置、系统和电子介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116309137A true CN116309137A (zh) | 2023-06-23 |
Family
ID=86823401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310183533.7A Pending CN116309137A (zh) | 2023-02-17 | 2023-02-17 | 一种多视点图像去模糊方法、装置、系统和电子介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116309137A (zh) |
-
2023
- 2023-02-17 CN CN202310183533.7A patent/CN116309137A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816589B (zh) | 用于生成漫画风格转换模型的方法和装置 | |
CN112929582A (zh) | 一种特效展示方法、装置、设备及介质 | |
CN115690382B (zh) | 深度学习模型的训练方法、生成全景图的方法和装置 | |
EP3872764A1 (en) | Method and apparatus for constructing map | |
CN113327318B (zh) | 图像显示方法、装置、电子设备和计算机可读介质 | |
CN109754464B (zh) | 用于生成信息的方法和装置 | |
CN110349107B (zh) | 图像增强的方法、装置、电子设备、及存储介质 | |
CN114549722A (zh) | 3d素材的渲染方法、装置、设备及存储介质 | |
CN112330788A (zh) | 图像处理方法、装置、可读介质及电子设备 | |
CN112714263B (zh) | 视频生成方法、装置、设备及存储介质 | |
WO2020092051A1 (en) | Rolling shutter rectification in images/videos using convolutional neural networks with applications to sfm/slam with rolling shutter images/videos | |
CN114399814A (zh) | 一种基于深度学习的遮挡物移除和三维重建方法 | |
CN109816791B (zh) | 用于生成信息的方法和装置 | |
CN111818265A (zh) | 基于增强现实模型的交互方法、装置、电子设备及介质 | |
CN115880526A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN114040129B (zh) | 视频生成方法、装置、设备及存储介质 | |
CN116309137A (zh) | 一种多视点图像去模糊方法、装置、系统和电子介质 | |
CN114419298A (zh) | 虚拟物体的生成方法、装置、设备及存储介质 | |
CN111798385B (zh) | 图像处理方法及装置、计算机可读介质和电子设备 | |
CN114066722A (zh) | 用于获取图像的方法、装置和电子设备 | |
CN113066166A (zh) | 图像处理方法、装置和电子设备 | |
CN112070903A (zh) | 虚拟对象的展示方法、装置、电子设备及计算机存储介质 | |
CN115841151B (zh) | 模型训练方法、装置、电子设备和计算机可读介质 | |
CN117333560B (zh) | 场景自适应的条纹结构光解码方法、装置、设备和介质 | |
CN111738899B (zh) | 用于生成水印的方法、装置、设备和计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |