CN115131409B - 一种基于深度学习的亲密矩阵视点合成方法、应用及系统 - Google Patents
一种基于深度学习的亲密矩阵视点合成方法、应用及系统 Download PDFInfo
- Publication number
- CN115131409B CN115131409B CN202211030050.5A CN202211030050A CN115131409B CN 115131409 B CN115131409 B CN 115131409B CN 202211030050 A CN202211030050 A CN 202211030050A CN 115131409 B CN115131409 B CN 115131409B
- Authority
- CN
- China
- Prior art keywords
- optical flow
- network
- intimacy
- matrix network
- fine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度学习的亲密矩阵视点合成方法、应用及系统,涉及深度学习领域。本发明包括以下步骤:获取相邻两帧的数据对,将相邻两帧的数据对向参考帧对齐,得到边缘图像,并根据有效区域生成掩膜;利用双向光流网络相邻两帧的数据对的光流结果,根据光流结果推断帧间的遮挡区域;将边缘图像、掩膜以及光流结果归一化,输入到亲密矩阵网络;利用亲密矩阵网络和微调光流多次迭代结合合成全帧视点在RGB颜色空间图像。本发明吸取并融合传统算法和深度学习的优势,在日常视差,跑步,快速旋转和人群场景中可以提供优秀的视频稳像效果,并尽最大可能去保持高稳定性,降低截屏比和低扭曲变形的高质量视频。
Description
技术领域
本发明涉及深度学习领域,更具体的说是涉及一种亲密矩阵网络训练方法、应用及系统。
背景技术
电子防抖在手机,相机,自动驾驶,无人机,航海,安防监控和其他视频记录设备领域是必不可缺的一项功能。视图合成算法作为可集成模块可以配合任何的电子防抖算法,在稳像的同时最大限度保留原始信息。
随着智能相机的不断发展,视频防抖技术在无人机、无人船、城市安防、高点监控、机器人、航空航天等领域的产品中的显得越来越重要。
视频防抖技术大致可分为光学防抖(Optical image stabilization:OIS)、电子防抖(Electric Image Stabilization:EIS)以及混合防抖(Hybrid ImageStabilization:HIS)。
OIS是一种硬件解决方案,它使用微机电系统(MEMS)陀螺仪来检测运动并相应地调整摄像头系统。
EIS是从软件算法角度,不必有额外的硬件支持,对视频的低频抖动和大幅运动稳像。相对于OIS,具有嵌入软件中,易于升级,低功耗,低成本等优点。HIS则是对OIS和EIS的融合方案。视图合成则是作为即插即用模块来显著提升EIS视频稳像算法由于裁剪损失的出画信息。
现今市场上大部分设备的电子防抖算法都是基于传统的防抖算法进行特征提取,轨迹滤波并结合来达到稳像的效果,适配场景较少,稳像后截图比较小,损失大量原始信息。因此,如何解决上述问题是本领域技术人员亟需研究的。
发明内容
有鉴于此,本发明提供了一种亲密矩阵网络训练方法、应用及系统,采用视图合成算法将帧间图像信息补充当前帧在稳像后被截掉的部分,从而达到更好的视觉效果。
为了实现上述目的,本发明采用如下技术方案:
公开了一种亲密矩阵网络的训练方法,包括以下步骤:
建立亲密矩阵网络;
利用损失函数对所述亲密矩阵网络进行训练;
当损失函数的值稳定时,结束训练,得到训练好的亲密矩阵网络。
还公开了一种基于亲密矩阵网络的电子防抖视图合成方法,包括以下步骤:
获取相邻两帧的数据对,将相邻两帧的数据对向参考帧对齐,得到边缘图像,并根据有效区域生成掩膜;
利用双向光流网络相邻两帧的数据对的光流结果,根据光流结果推断帧间的遮挡区域;
将边缘图像、掩膜以及光流结果归一化,输入到亲密矩阵网络;
利用亲密矩阵网络和微调光流卷积多次迭代得到光滑且充足的信息。这样可以为后续视点合成全帧RGB颜色空间图像提供过度连续的图像依据。
可选的,还包括RGB颜色空间数据转为黑白图后的边缘信息,通过索贝尔算子进行提取。
可选的,所述双向光流网络选取符合UNet结构的CNN网络,正向和逆向光流的输出结果一维为水平位移,另一维为竖直位移。
最后公开了一种基于亲密矩阵网络的电子防抖视图合成系统,包括:
粗对齐模块:用于获取相邻两帧的数据对,将相邻两帧的数据对向参考帧对齐,得到边缘图像,并根据有效区域生成掩膜;
双向光流网络计算模块:用于利用双向光流网络相邻两帧的数据对的光流结果,根据光流结果推断帧间的遮挡区域;
亲密网络模块:用于将边缘图像、掩膜以及光流结果归一化,输入到亲密矩阵网络;
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种基于亲密矩阵网络的电子防抖视图合成方法及系统,吸取并融合传统算法和深度学习的优势在日常,视差,跑步,快速旋转和人群场景中可以提供优秀的视频稳像效果,并尽最大可能去保持高稳定性,降低截屏比和低扭曲变形的高质量视频,具有以下有益效果:
1、首次尝试了通过在视点合成期间,利用光流作为推断合成的依据和必要的边界外视图来改进视频稳定器,实现全帧(即不裁剪图像)稳定性。
2、基于视频中的空间一致性,利用亲密性矩阵的特性,提出了一种用于边界外视图合成的两阶段的由粗到细(粗对齐到微调光流)的方法。
3、公开可用数据集NUS的实验结果表明,此发明适配性很强。可以作为即插即用模块来显著提升视频稳像算法的截屏比。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明的流程示意图;
图2为本发明的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种基于亲密矩阵网络的电子防抖视图合成方法,如图1所示,包括以下步骤:
获取相邻两帧的数据对,将相邻两帧的数据对向参考帧对齐,得到边缘图像,并根据有效区域生成掩膜;
利用双向光流网络相邻两帧的数据对的光流结果,根据光流结果推断帧间的遮挡区域;
将边缘图像、掩膜以及光流结果归一化,输入到亲密矩阵网络;
具体如下:
粗对齐:使用相邻两帧RGB颜色空间的分辨率为720P的数据对作为输入。在时域上,将相邻帧向参考帧对齐。对齐操作会导致图像的边缘部分出画,产生黑边。训练时,为了尽可能提高网络学习的能力,对于相邻的原始RGB颜色空间数据进行随机截图后,仅对前一帧图像进行居中截取操作。居中截图操作后对于周围信息进行补零,模拟黑边区域作为训练数据。针对图像的有效区域生成掩膜来标注未出画区域,作为可提供参考信息,但不必被学习的区域。黑边区域暂时无效,但在接下来的步骤要重点学习。除此之外,RGB颜色空间数据转为黑白图后的边缘信息,需要通过索贝尔算子进行提取,也作为输入为后续步骤做准备。
相邻帧之间的亮度恒定;
相邻帧之间物体的运动比较“微小”;
保持空间一致性;即,相邻像素点具有相同的运动;
光流分为稀疏光流和稠密光流。稀疏光流只需要关于每个感兴趣点周围小窗口的局部信息,而稠密光流是基于前后两帧所有像素点的移动估算算法,其效果要比稀疏光流算法更好。所以此发明使用的是稠密的双向光流。
双向光流,就是对于正向和逆向时间维度都计算光流结果,这对于推断帧间的遮挡区域有很重要的作用。双向光流网络是符合UNet结构的CNN网络,正向和逆向光流的输出结果分别是H x W x 2的,一维为水平位移,另一维为竖直位移。
亲密矩阵网络:第1步的RGB颜色空间图像,边缘图像和掩膜和第2步的双向光流归一化后从第三维度合并为H x W x通道数作为网络输入。此网络是UNet结构,是用来学习亲密性矩阵和经过微调后的光流的。亲密性矩阵是用来找像素点之间关联性的,值域范围为[0,1]。如果两个像素点关系越亲密,就越趋近于1,反之则为0。输出的亲密性矩阵维度是H x W x(2r+1),这里半径是矩阵的半径,微调光流结果符合H x W x 2的光流格式。
传播:到目前为止微调光流的结果是在未出画区域内的。黑边区域的内容需要靠亲密性矩阵和微调光流卷积操作及一系列计算来为视点合成提供推断依据。:亲密矩阵的半径、:在第i次迭代时的亲密矩阵、:第i个时刻,第t次迭代时的微调光流、:图像的2D坐标;
损失函数计算:得到外推后的RGB颜色空间图像、边缘和掩膜后,需要和其对应的真值、、(即当前帧数据)求得损失函数。通过训练得到的有效区域通过和掩膜的点乘来计算。设置在这里用来稳定损失计算结果,取值为趋近于0的极小值来应对平凡解的情况。由于在训练中网络可能存在不断缩小掩膜的情况,导致并不去学习该补充的黑边信息,便添加了一个均方误差专门来惩罚掩膜缩小的现象。总损失函数中会添加,和来控制三种损失的权重比例。此发明中,和会承担大于的权重。
在本实施例中还公开了一种基于亲密矩阵网络的电子防抖视图合成系统,如图2所示,包括:
粗对齐模块:用于获取相邻两帧的数据对,将相邻两帧的数据对向参考帧对齐,得到边缘图像,并根据有效区域生成掩膜;
双向光流网络计算模块:用于利用双向光流网络相邻两帧的数据对的光流结果,根据光流结果推断帧间的遮挡区域;
亲密网络模块:用于将边缘图像、掩膜以及光流结果归一化,输入到亲密矩阵网络;
视点合成模块:用于利用亲密矩阵网络和微调光流多次迭代并推断得到全帧RGB颜色空间图像。
另外,在另一实施例中还公开了以下技术方案:
1.输入数据:输入的RBG数据也可替换为dng、RAW等原始图像格式,或者HSV、YUV等其他色彩空间图片。本实施例的训练数据使用的是720P分辨率的图片,当然也可以被其他分辨率的图片结合上下采样等数据预处理所代替。
2.双向光流网络:基于OpenCV的Farneback算法是传统最经典的稠密光流算法,及基于深度学习的FlowNet I,II,III,PWC Net以及后续更新的最新的光流网络配合一个反转光流层直接得到双向光流。也包括基于插帧应用的双向光流网络等可直接获得双向光流结果。
3.亲密估计网络:可被符合UNet结构的CNN网络所替代,具体的网络结构,训练方法和损失函数设置需要试具体情况来调节。
4.视点合成:因为微调光流也是符合光流数据结构的,所以基于稠密光流的翘曲方式推断的方法,来合成最终结果都是可以被应用在此实施例中的。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (7)
1.一种亲密矩阵网络的训练方法,其特征在于,包括以下步骤:
建立亲密矩阵网络,所述亲密矩阵网络是UNet结构,是用来学习亲密性矩阵和经过微调后的光流的;亲密性矩阵是用来找像素点之间关联性的;
Ltotal=αLI+βLG+γLM;
其中,ε用来稳定损失计算结果取值为一个接近但不等于0的数,总损失函数中会添加α,β和γ来控制三种损失的权重比例;
利用损失函数对所述亲密矩阵网络进行训练;
当损失函数的值收敛并达到稳定极小值,结束训练,得到训练好的亲密矩阵网络。
2.一种基于亲密矩阵网络视图合成的电子防抖方法,其特征在于,根据权利要求1所述的一种亲密矩阵网络的训练方法,包括以下步骤:
获取相邻两帧的数据对,将相邻两帧的数据对向参考帧对齐,得到边缘图像,并根据有效区域生成掩膜;
利用双向光流网络相邻两帧的数据对的光流结果,根据光流结果推断帧间的遮挡区域;
将边缘图像、掩膜以及光流结果归一化,输入到亲密矩阵网络;
利用亲密矩阵网络和微调光流多次迭代得到全帧RGB颜色空间图像。
3.根据权利要求2所述的一种基于亲密矩阵网络视图合成的电子防抖方法,其特征在于,还包括RGB颜色空间数据转为黑白图后的边缘信息,通过索贝尔算子进行提取。
5.根据权利要求2所述的一种基于亲密矩阵网络视图合成的电子防抖方法,其特征在于,所述双向光流网络选取符合UNet结构的CNN网络,正向和逆向光流的输出结果一维为水平位移,另一维为竖直位移。
7.一种基于亲密矩阵网络视图合成的电子防抖系统,其特征在于,根据权利要求1所述的一种亲密矩阵网络的训练方法,包括:
粗对齐模块:用于获取相邻两帧的数据对,将相邻两帧的数据对向参考帧对齐,得到边缘图像,并根据有效区域生成掩膜;
双向光流网络模块:用于利用双向光流网络相邻两帧的数据对的光流结果,根据光流结果推断帧间的遮挡区域;
亲密网络模块:用于将边缘图像、掩膜以及光流结果归一化,输入到亲密矩阵网络;
视点合成模块:用于利用亲密矩阵网络和微调光流多次卷积迭代并结合前一帧信息得到全帧RGB颜色空间图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211030050.5A CN115131409B (zh) | 2022-08-26 | 2022-08-26 | 一种基于深度学习的亲密矩阵视点合成方法、应用及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211030050.5A CN115131409B (zh) | 2022-08-26 | 2022-08-26 | 一种基于深度学习的亲密矩阵视点合成方法、应用及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115131409A CN115131409A (zh) | 2022-09-30 |
CN115131409B true CN115131409B (zh) | 2023-01-24 |
Family
ID=83387532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211030050.5A Active CN115131409B (zh) | 2022-08-26 | 2022-08-26 | 一种基于深度学习的亲密矩阵视点合成方法、应用及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115131409B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104272377A (zh) * | 2012-02-06 | 2015-01-07 | 莱金德3D有限责任公司 | 运动图片项目管理系统 |
CN104978579A (zh) * | 2015-06-10 | 2015-10-14 | 国家计算机网络与信息安全管理中心 | 一种对图像型垃圾邮件进行过滤的方法及装置 |
CN109389605A (zh) * | 2018-09-30 | 2019-02-26 | 宁波工程学院 | 基于前景背景估计和分级区域关联的图像协同分割方法 |
CN110837861A (zh) * | 2019-11-06 | 2020-02-25 | 亮风台(上海)信息科技有限公司 | 一种图像匹配方法、装置、设备和存储介质 |
CN111046847A (zh) * | 2019-12-30 | 2020-04-21 | 北京澎思科技有限公司 | 一种视频处理方法、装置、电子设备以及介质 |
CN112584789A (zh) * | 2018-06-19 | 2021-03-30 | 托尼尔公司 | 具有配准虚拟模型的物理标记的混合现实外科手术系统 |
CN112785601A (zh) * | 2021-01-07 | 2021-05-11 | 重庆兆琨智医科技有限公司 | 一种图像分割方法、系统、介质及电子终端 |
CN113850381A (zh) * | 2021-09-15 | 2021-12-28 | 支付宝(杭州)信息技术有限公司 | 一种图神经网络训练方法及装置 |
CN113868550A (zh) * | 2021-09-29 | 2021-12-31 | 西安理工大学 | 一种基于注意力机制的群组美食推荐方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10086539B2 (en) * | 2014-03-25 | 2018-10-02 | University Of Houston System | Synthesis of effective carbon nanoreinforcements for structural applications |
US20230419600A1 (en) * | 2020-11-05 | 2023-12-28 | Google Llc | Volumetric performance capture with neural rendering |
CN113450274B (zh) * | 2021-06-23 | 2022-08-05 | 山东大学 | 一种基于深度学习的自适应视点融合方法及系统 |
CN114677477A (zh) * | 2022-03-31 | 2022-06-28 | 成都信息工程大学 | 一种虚拟视点合成方法、系统、介质、设备及终端 |
-
2022
- 2022-08-26 CN CN202211030050.5A patent/CN115131409B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104272377A (zh) * | 2012-02-06 | 2015-01-07 | 莱金德3D有限责任公司 | 运动图片项目管理系统 |
CN104978579A (zh) * | 2015-06-10 | 2015-10-14 | 国家计算机网络与信息安全管理中心 | 一种对图像型垃圾邮件进行过滤的方法及装置 |
CN112584789A (zh) * | 2018-06-19 | 2021-03-30 | 托尼尔公司 | 具有配准虚拟模型的物理标记的混合现实外科手术系统 |
CN109389605A (zh) * | 2018-09-30 | 2019-02-26 | 宁波工程学院 | 基于前景背景估计和分级区域关联的图像协同分割方法 |
CN110837861A (zh) * | 2019-11-06 | 2020-02-25 | 亮风台(上海)信息科技有限公司 | 一种图像匹配方法、装置、设备和存储介质 |
CN111046847A (zh) * | 2019-12-30 | 2020-04-21 | 北京澎思科技有限公司 | 一种视频处理方法、装置、电子设备以及介质 |
CN112785601A (zh) * | 2021-01-07 | 2021-05-11 | 重庆兆琨智医科技有限公司 | 一种图像分割方法、系统、介质及电子终端 |
CN113850381A (zh) * | 2021-09-15 | 2021-12-28 | 支付宝(杭州)信息技术有限公司 | 一种图神经网络训练方法及装置 |
CN113868550A (zh) * | 2021-09-29 | 2021-12-31 | 西安理工大学 | 一种基于注意力机制的群组美食推荐方法 |
Non-Patent Citations (2)
Title |
---|
"Learning Combinatorial Solver for Graph Matching";Tao Wang等;《2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;20200805;第7565-7574页 * |
"一种基于两视点DIBR的改进虚拟视点合成方法";王路等;《山东大学学报(理学版)》;20160331;第51卷(第3期);第122-142页 * |
Also Published As
Publication number | Publication date |
---|---|
CN115131409A (zh) | 2022-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11388385B2 (en) | Primary and auxiliary image capture devices for image processing and related methods | |
US10764496B2 (en) | Fast scan-type panoramic image synthesis method and device | |
US8559763B2 (en) | Method and apparatus for motion-compensated interpolation (MCI) with conservative motion model | |
WO2018225967A1 (en) | Device having cameras with different focal lengths and method of implementing cameras | |
CA2430591C (en) | Techniques and systems for developing high-resolution imagery | |
US8520085B2 (en) | Method of full frame video stabilization | |
US7773819B2 (en) | Image processing apparatus | |
US11995856B2 (en) | Video depth estimation based on temporal attention | |
CN110889809B (zh) | 图像处理方法及装置、电子设备、存储介质 | |
CN114429191B (zh) | 基于深度学习的电子防抖方法、系统及存储介质 | |
Wang et al. | Video stabilization: A comprehensive survey | |
CN105657268A (zh) | 一种基于多分辨率的多视点视频拼接融合算法 | |
CN115115516A (zh) | 基于Raw域的真实世界视频超分辨率算法 | |
US8260084B2 (en) | Binary image stitching based on grayscale approximation | |
CN115131409B (zh) | 一种基于深度学习的亲密矩阵视点合成方法、应用及系统 | |
JP2017207818A (ja) | 画像処理装置、画像処理方法、プログラム | |
Choi et al. | Self-supervised real-time video stabilization | |
CN103167304B (zh) | 立体视频帧率提升方法和装置 | |
WO2022148307A1 (zh) | 获取视差图像的方法、装置、电子设备、存储介质及计算机程序 | |
US20100182464A1 (en) | Joint Automatic Demosaicking And White Balancing | |
US11669939B1 (en) | Burst deblurring with kernel estimation networks | |
CN111340695A (zh) | 一种球幕视频的超分重建方法 | |
WO2021254229A1 (zh) | 低照度视频处理方法、设备和存储介质 | |
CN114972517B (zh) | 一种基于raft的自监督深度估计方法 | |
TW201322732A (zh) | 調整影像之運動景深的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |