CN105120252A - 一种面向虚拟多视点绘制的深度感知增强方法 - Google Patents
一种面向虚拟多视点绘制的深度感知增强方法 Download PDFInfo
- Publication number
- CN105120252A CN105120252A CN201510557101.3A CN201510557101A CN105120252A CN 105120252 A CN105120252 A CN 105120252A CN 201510557101 A CN201510557101 A CN 201510557101A CN 105120252 A CN105120252 A CN 105120252A
- Authority
- CN
- China
- Prior art keywords
- depth
- virtual
- depth perception
- multiple views
- drawn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明属于立体图像处理领域,为依据人眼视觉深度感知原理,提出面向虚拟多视点绘制的深度感知增强方法,通过对视差图进行调整,实现面向多虚拟视点绘制的深度感知增强方法,达到改善立体显示效果的目的。为此,本发明采取的技术方案是,一种面向虚拟多视点绘制的深度感知增强方法,包括如下步骤:1)图像分割2)面向虚拟多视点绘制的恰可察觉深度差异模型3)面向虚拟多视点绘制的深度感知增强4)虚拟多视点绘制5)自由立体显示本发明主要应用于图像处理。
Description
技术领域
本发明属于立体图像处理领域,涉及一种面向虚拟多视点绘制的深度感知增强方法,来增强立体显示的立体效果。
技术背景
立体(3D)技术是利用双眼立体视觉原理,结合各种深度或视差线索,使观看者从显示设备上获得立体感的各种技术的总称。3D显示技术可以分为传统立体显示技术和裸眼立体显示技术。传统的立体显示技术需要佩戴眼镜才能观察出3D图像的立体感。裸眼立体显示技术不需要佩戴眼镜,裸眼即可观察出3D图像的立体感。自由立体显示技术,是当前裸眼立体显示的主要发展方向之一,能基于多视角视频实现多观看视点的选择和全方位的立体显示,从而带给人以逼真震撼的观看效果,满足人们对场景真实再现的要求。分析表明,自由立体显示由于发展时间较短、难度较高,较传统立体显示技术而言在观看舒适度、立体感知效果等方面还有待提高。
虚拟视点绘制是自由立体显示技术的核心技术之一,根据原始视点可产生多个虚拟视点。虚拟视点绘制的目的是在原有视点的基础上,生成物理上不失真的虚拟视点视图。虚拟视点绘制技术主要包括基于模型的绘制(ModelBasedRendering,MBR)和基于图像的绘制(ImageBasedRendering,IBR)。基于模型的绘制需要几何建模与计算,在复杂场景下通过MBR成像效果并不是非常理想,无法满足用户不断发展的对图像真实感和沉浸感的需求。基于图像的绘制主要研究如何采用已知视点图像来直接生成虚拟视点下的对应图像,其绘制过程避免了复杂的几何建模与计算工作,因此具有快速、简单、逼真的优点,已成为当前最为活跃的研究方向。由于基于深度图像的虚拟视点绘制技术(DIBR)将图像和三维深度信息进行了有效的结合,提高了对自然场景的绘制速度,且可以利用少量的参考视点图像,高质量地绘制任意位置的新视点图像,节省了数据存储空间和传输带宽,近年来受到广泛的关注。但绘制多个中间虚拟视点时,会降低相邻视点之间的视差,从而降低了3D显示的立体感。因此,深度感知增强在3D显示方面具有重要作用。
从立体的角度来说,人眼在观看立体图像时只能感知大于某个值的深度变化或色彩变化,我们称之为立体的恰可察觉差异。JND模型即是针对HVS的特征通过大量实验推导出来的。研究表明,此阈值依赖于图像的亮度、对比度以及局部区域的空间分辨率等。在立体显示领域,JND模型可分为双目失真恰可察觉差异(BJND,BinocularJustNoticeableDifference)模型和JNDD(JJND,JustNoticeableDepthDifference)模型。BJND表示左右视图中人眼可察觉的最小内部差异,如果某立体图像的左右视图之间的对应位置及其像素差异小于BJND,则人眼不能感知其差别。JNDD表示人眼可察觉的最小深度差异。如果深度图中相邻对象的深度差异小于JNDD,采用该深度图合成的立体图像,人体不能感知其深度差异。Jung等基于最小可察觉深度差异(JNDD)模型实现了深度感知增强,通过拉伸深度图中物体深度差异小于JNDD阈值的部分,以使得人眼能够察觉这部分信息。Jung提出了全局深度感知增强算法,通过对JNDD模型的研究,利用深度图的直方图估计和核密度估计(KDE)方法把深度图进行分割分层处理,层之间的深度差值小于JNDD阈值的对象,采用能量最小化模型进行增强。考虑到这种全局增强算法存在诸多不足,Jung等通过更为细致的分析,提出了一种改进的基于JNDD模型的深度感知增强算法。改进算法包含深度数据维持,深度顺序保持和深度层拉伸三个主要部分。深度数据维持项通过权重函数来控制深度改变的方向,使得与真实场景的差异为最小。深度顺序保持项限制深度图中物体之间深度值的反转,使得对象边界信息准确。深度层拉伸项通过增加相邻分割层之间深度差异来增强人眼的深度感知能力。
发明内容
为克服现有技术的不足,本发明旨在依据人眼视觉深度感知原理,提出面向虚拟多视点绘制的深度感知增强方法,通过对视差图进行调整,实现面向多虚拟视点绘制的深度感知增强方法,达到改善立体显示效果的目的。为此,本发明采取的技术方案是,一种面向虚拟多视点绘制的深度感知增强方法,包括如下步骤:
1)图像分割
采用手动分割方法:依据彩色图的对象分布,人工获得准确的分割图;
2)面向虚拟多视点绘制的恰可察觉深度差异模型
分析出最小可察觉阈值会随着绘制中间虚拟视点数量变化,推导出面向虚拟多视点绘制的恰可察觉深度差异模型MVRJNDD;
3)面向虚拟多视点绘制的深度感知增强
依据上述推导出的基于虚拟多视点绘制的恰可察觉深度差异模型,将视差图相邻层之间小于MVRJNDD的部分进行拉伸,达到MVRJNDD阈值。依据基于恰可察觉深度差异的深度感知增强能量函数,保证由不同数量虚拟视点合成的立体图像的深度效果。
4)虚拟多视点绘制
利用上述深度感知增强后的视差图,采用基于深度图像的虚拟视点绘制方法进行虚拟视点绘制,以8视点自由立体显示为例绘制7个虚拟视点,分别是1/7到7/7视点,绘制的虚拟视点存在空洞,利用空洞填补算法进行图像修复;
5)自由立体显示
最终采用参考视点和上述生成的7个虚拟视点组成八个视点并运用立体合成算法生成适合自由立体显示器显示的合成图,并予以显示。
构建了面向虚拟多视点绘制的恰可察觉深度差异模型MVRJNDD,表示如下:
其中N表示绘制的中间虚拟视点的数量,α是一个比例因子表示深度和视差之间的对应关系,d表示深度像素值,p表示视差像素值;α的计算公式如下:
其中pmax和pmin分别表示视差的最大值和最小值;
恰可察觉深度差异模型DJNDD(d)表示如下:
建立了基于恰可察觉深度差异的深度感知增强能量函数,定义如下:
其中w1是权重参数,取值为100,根据图像大小进行调节;x0和x*分别表示原始和拉伸后的视差图的平均像素值,M表示分割图的分割层数,也就是场景中物体的数量,xi、xj对应表示原始视差图中位于第i、j层的物体的平均像素值。
能量函数采用最优化算法求解。
能量函数采用遗传算法求解。
与已有技术相比,本发明的技术特点与效果:
发明通过调整用来合成多视点自由立体图像的视差图,增强相邻分隔层的深度差异,使得人眼能够感知到场景中物体之间的层次感,有效的增强了显示图像的深度感、改善了立体显示效果。
附图说明
图1给出了未采用本发明方法的原始视差图。
图2给出了采用本发明方法获得的增强后的视差图。
图3给出了原始视差图绘制虚拟视点的合成图。
图4给出了为采用本发明方法增强后视差图绘制虚拟视点的合成图。
图5给出了技术方案的流程图。
具体实施方式
本发明的目的是依据人眼视觉深度感知原理,提出面向虚拟多视点绘制的深度感知增强方法。基于深度的虚拟视点绘制技术是目前应用最为广泛的一项3D生成技术。但是绘制的相邻视点由于视差减小,从而会降低对象间的深度差异,导致立体显示的深度感减弱。本发明针对该问题通过对视差图进行调整,实现了面向多虚拟视点绘制的深度感知增强方法,达到了改善立体显示效果的目的。
基于深度图像的虚拟多视点绘制在进行自由立体显示时,由于相邻视点间视差会大幅度降低,导致观测的立体图像深度感变差。为增强人眼对3D图像或视频的深度感知能力,本发明依据人眼最小可察觉深度差异(JNDD)原理,实现了面向虚拟多视点绘制的深度感知增强,具体的技术方案分为下列步骤:
1:图像分割
为了准确的表现本发明的效果,采用手动分割方法。手动分割是依据彩色图的对象分布,人工获得准确的分割图。
2:面向虚拟多视点绘制的恰可察觉深度差异模型
本发明分析出最小可察觉阈值会随着绘制中间虚拟视点数量变化,推导了面向虚拟多视点绘制的恰可察觉深度差异模型MVRJNDD,表示如下:
其中N表示绘制的中间虚拟视点的数量,α是一个比例因子表示深度和视差之间的对应关系,d表示深度像素值,p表示视差像素值。α的计算公式如下:
其中pmax和pmin分别表示视差的最大值和最小值。
恰可察觉深度差异模型DJNDD(d)表示如下:
3:面向虚拟多视点绘制的深度感知增强
依据上述推导出的基于虚拟多视点绘制的恰可察觉深度差异模型,将视差图相邻层之间小于MVRJNDD的部分进行拉伸,达到MVRJNDD阈值,从而保证了由不同数量的虚拟视点合成的立体图像的深度效果。基于恰可察觉深度差异的深度感知增强能量函数定义如下:
其中w1是权重参数,取值为100,可以根据图像大小进行调节。x0和x*分别表示原始和拉伸后的视差图的平均像素值。M表示分割图的分割层数,也就是场景中物体的数量,xi、xj对应表示原始视差图中位于第i、j层的物体的平均像素值。
4:虚拟多视点绘制
利用上述深度感知增强后的视差图,采用DIBR技术进行虚拟视点绘制,以8视点自由立体显示为例绘制7个虚拟视点,分别是1/7到7/7视点。绘制的虚拟视点存在空洞,利用空洞填补算法进行图像修复。
5:自由立体显示
最终采用参考视点和上述生成的7个虚拟视点组成八个视点并运用立体合成算法生成适合自由立体显示器显示的合成图,并在多视点光栅自由立体显示器上显示。
下面通过8视点自由立体显示说明本专利提出的面向虚拟多视点绘制的深度感知增强方法的实施过程。本专利以Middlebury数据库为例,采用该数据库提供的彩色图及其对应的视差图进行方法实施说明。
1:图像分割
为了准确的表现本发明的效果,采用手动分割方法。手动分割是依据彩色图的对象分布,获得准确的分割图。每个分割对象对应一层。本发明用分割对象的视差平均值表示对应分割层的像素值。
2:面向虚拟多视点绘制的恰可察觉深度差异模型
下面详细叙述面向虚拟多视点绘制的恰可察觉差异模型的推到过程。
中间虚拟视点的像素和参考视图的关系如下式:
其中N表示绘制的中间虚拟视点的数量,XL,Xi分别表示参考视点以及绘制的中间虚拟视点的水平坐标,B是基线,f是焦距,pLi为第i个中间虚拟视点图的视差。PLR是参考视图的视差图。c是局部参数,代表中间视图所处的相关位置与参考视图间的归一化距离。绘制虚拟视点的像素Ii可以表示如下:
Ii(Xi,Y)=Ii(XL-c·pLP,Y)=IL(XL,Y)
其中IL表示参考视图的像素值。
其中zmax和zmin分别表示真实场景中的深度的最大值和最小值。
依据上述公式,z可以表示为cBf/p,同理zmin和zmax可以分别表示为cBf/pmax和cBf/pmin,这样深度d和视差p之间的关系如下:
其中pmax和pmin分别表示视差图中视差的最大值和最小值。
从上述公式可以看出,由于β是一个常数,所以深度差值近似于视差差值的α倍。最小可察觉阈值需要随着绘制中间虚拟视点数量的增加而加大。最终本发明推导了面向虚拟多视点绘制的恰可察觉深度差异模型MVRJNDD,表示如下:
JNDD模型和深度层级之间的关系表示为分段线性函数。恰可察觉深度差异模型DJNDD(d)如下:
3:面向虚拟多视点绘制的深度感知增强
面向虚拟多视点绘制的深度感知增强的能量函数包含深度数据维持项,深度顺序保持项和MVR项,能量函数如下:
E(x,x0)=ED(x,x0)+EO(x,x0)+EMVR(x,x0)
其中
x0和x*分别表示原始和感知增强后的视差图的平均像素值。M表示分割图的分割层数,也就是场景中物体的数量,xi表示原始视差图中位于第i层的物体的视差像素平均值。依据平均值的大小,xi以递增顺序排列,即xi>=xi-1。
深度数据维持项用ED表示,该项限制视差值的变化范围,使得相邻层的差值达到MVRJNDD阈值为最佳。定义如下:
其中
γ是常量参数。权重w表示如果物体新的视差值位置较之前视差值位置更靠近零视差区域,那么h(xi)-h(x0)<0,反之亦然。因此依据h(xi)-h(x0)的值来调整w,能够避免因过度拉伸导致物体偏离视觉舒适区域。
深度顺序维持项是为保证分割层对应物体的深度顺序不改变。影响深度顺序的有两个因素。首先,需保持场景中物体的深度顺序不改变。其次,保持相邻物体之间边缘顺序不改变。基于以上两个因素深度顺序维持项,定义如下:
其中是权重参数,ψij表示位于第i分割层物体边缘像素,Ωi表示与第i分割层相邻的分割层的代数重数。l(k1,k2)是指示函数,k1,k2分别表示属于第i层物体和第j层物体的坐标,如果k1,k2位于物体边缘处,则l(k1,k2)=1,其它区域l(k1,k2)=0。定义如下:
这样通过观察的符号可以观察局部深度顺序改变情况。在局部深度顺序反转的区域,即用来计算边缘深度顺序改变的程度定义如下:
反向阶跃函数能够使在深度顺序没有发生改变时的值为0,阶跃函数定义如下:
通过局部的和全局的深度顺序保持项,在进行深度感知增强时,则能够保持真实场景中几何物体的相对位置关系。
MVR项是用来将视差图相邻层之间小于MVRJNDD的部分进行拉伸,达到MVRJNDD阈值,从而保证了由不同数量的虚拟视点合成的立体图像的深度效果。MVR项定义如下:
其中w1是权重参数,取值为100,可以根据图片大小进行调节。
能量函数可以用最优化算法求解,本发明中采用遗传算法求解。
4:虚拟多视点绘制
利用上述深度感知增强后的视差图,采用DIBR技术进行虚拟视点绘制,以8视点自由立体显示为例绘制7个虚拟视点,分别是1/7到7/7视点。绘制的虚拟视点存在空洞,利用空洞填补算法进行图像修复。
5:自由立体显示
最终采用参考视点和上述生成的7个虚拟视点组成八个视点并运用立体合成算法生成适合自由立体显示器显示的合成图,并在多视点光栅自由立体显示器上显示。
下面结合附图说明实验效果:
为使本发明的效果具有可比性,我们采用Middlebury立体图像库中Middl1为例进行说明。
图1为未采用本发明方法的原始视差图。
图2为采用本发明方法获得的增强后的视差图,从灰度颜色的深浅可以看出,采用本方法得到的视差图灰度对比明显加大,视差图的像素值就是反映的立体显示屏上立体图像的凹凸感的强烈程度。
图3为原始视差图绘制虚拟视点的合成图。
图4为采用本发明方法增强后的视差图绘制虚拟视点的合成图,在合成图中靠近前面的物体越模糊表示越凸出屏面,靠近背景的地方越清晰表示越凹进屏幕。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种面向虚拟多视点绘制的深度感知增强方法,其特征是,包括如下步骤,
1)图像分割
采用手动分割方法:依据彩色图的对象分布,人工获得准确的分割图;
2)面向虚拟多视点绘制的恰可察觉深度差异模型
分析出最小可察觉阈值会随着绘制中间虚拟视点数量变化,推导出面向虚拟多视点绘制的恰可察觉深度差异模型MVRJNDD;
3)面向虚拟多视点绘制的深度感知增强
依据上述推导出的基于虚拟多视点绘制的恰可察觉深度差异模型,将视差图相邻层之间小于MVRJNDD的部分进行拉伸,达到MVRJNDD阈值,依据基于恰可察觉深度差异的深度感知增强能量函数,保证由不同数量虚拟视点合成的立体图像的深度效果;
4)虚拟多视点绘制
利用上述深度感知增强后的视差图,采用基于深度图像的虚拟视点绘制方法进行虚拟视点绘制,以8视点自由立体显示为例绘制7个虚拟视点,分别是1/7到7/7视点,绘制的虚拟视点存在空洞,利用空洞填补算法进行图像修复;
5)自由立体显示
最终采用参考视点和上述生成的7个虚拟视点组成八个视点并运用立体合成算法生成适合自由立体显示器显示的合成图,并予以显示。
2.如权利要求1所述的一种面向虚拟多视点绘制的深度感知增强方法,其特征是,构建了面向虚拟多视点绘制的恰可察觉深度差异模型MVRJNDD,表示如下:
其中N表示绘制的中间虚拟视点的数量,α是一个比例因子表示深度和视差之间的对应关系,d表示深度像素值,p表示视差像素值;α的计算公式如下:
其中pmax和pmin分别表示视差的最大值和最小值;
恰可察觉深度差异模型DJNDD(d)表示如下:
3.如权利要求1所述的一种面向虚拟多视点绘制的深度感知增强方法,其特征是,建立了基于恰可察觉深度差异的深度感知增强能量函数,定义如下:
其中w1是权重参数,取值为100,根据图像大小进行调节;x0和x*分别表示原始和拉伸后的视差图的平均像素值,M表示分割图的分割层数,也就是场景中物体的数量,xi、xj对应表示原始视差图中位于第i、j层的物体的平均像素值。
4.如权利要求1所述的一种面向虚拟多视点绘制的深度感知增强方法,其特征是,能量函数采用最优化算法求解。
5.如权利要求1所述的一种面向虚拟多视点绘制的深度感知增强方法,其特征是,能量函数采用遗传算法求解。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510557101.3A CN105120252A (zh) | 2015-09-02 | 2015-09-02 | 一种面向虚拟多视点绘制的深度感知增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510557101.3A CN105120252A (zh) | 2015-09-02 | 2015-09-02 | 一种面向虚拟多视点绘制的深度感知增强方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105120252A true CN105120252A (zh) | 2015-12-02 |
Family
ID=54668122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510557101.3A Pending CN105120252A (zh) | 2015-09-02 | 2015-09-02 | 一种面向虚拟多视点绘制的深度感知增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105120252A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105611272A (zh) * | 2015-12-28 | 2016-05-25 | 宁波大学 | 基于纹理复杂度的立体图像人眼恰可察觉失真分析方法 |
CN106447623A (zh) * | 2016-08-31 | 2017-02-22 | 天津大学 | 一种时域一致性深度感知增强方法 |
CN108682039A (zh) * | 2018-04-28 | 2018-10-19 | 国网山西省电力公司电力科学研究院 | 一种双目立体视觉测量方法 |
CN112651968A (zh) * | 2021-01-20 | 2021-04-13 | 广东工业大学 | 一种基于深度信息的木板形变与凹坑检测方法 |
-
2015
- 2015-09-02 CN CN201510557101.3A patent/CN105120252A/zh active Pending
Non-Patent Citations (2)
Title |
---|
JIANJUN LEI等: "Depth Sensation Enhancement for Multiple Virtual View Rendering", 《IEEE TRANSACTIONS ON MULTIMEDIA》 * |
SEUNG-WON JUNG等: "Depth Sensation Enhancement Using the Just Noticeable Depth Difference", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105611272A (zh) * | 2015-12-28 | 2016-05-25 | 宁波大学 | 基于纹理复杂度的立体图像人眼恰可察觉失真分析方法 |
CN106447623A (zh) * | 2016-08-31 | 2017-02-22 | 天津大学 | 一种时域一致性深度感知增强方法 |
CN108682039A (zh) * | 2018-04-28 | 2018-10-19 | 国网山西省电力公司电力科学研究院 | 一种双目立体视觉测量方法 |
CN108682039B (zh) * | 2018-04-28 | 2022-03-25 | 国网山西省电力公司电力科学研究院 | 一种双目立体视觉测量方法 |
CN112651968A (zh) * | 2021-01-20 | 2021-04-13 | 广东工业大学 | 一种基于深度信息的木板形变与凹坑检测方法 |
CN112651968B (zh) * | 2021-01-20 | 2021-09-07 | 广东工业大学 | 一种基于深度信息的木板形变与凹坑检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9445072B2 (en) | Synthesizing views based on image domain warping | |
US8711204B2 (en) | Stereoscopic editing for video production, post-production and display adaptation | |
CN101808251B (zh) | 立体图像对中遮挡信息的提取方法 | |
CN101287143A (zh) | 基于实时人机对话的平面视频转立体视频的方法 | |
US20190166360A1 (en) | Binocular fixation imaging method and apparatus | |
CN102098528B (zh) | 一种平面图像的立体转换方法及装置 | |
CN101902657A (zh) | 一种基于深度图分层的虚拟多视点图像的生成方法 | |
EP1704730A1 (en) | Method and apparatus for generating a stereoscopic image | |
CN105120252A (zh) | 一种面向虚拟多视点绘制的深度感知增强方法 | |
MX2020009791A (es) | Método basado en planos multifocales para producir puntos de vista estereoscópicos en un sistema de renderizado de imágenes basado en profundidad (mfp-dibr). | |
CN105608666A (zh) | 一种二维图形生成三维图像的方法及系统 | |
Pan et al. | 3D video disparity scaling for preference and prevention of discomfort | |
CN104954780A (zh) | 一种适用于高清2d/3d转换的dibr虚拟图像修复方法 | |
CN106651853A (zh) | 基于先验知识和深度权重的3d显著性模型的建立方法 | |
CN104869386A (zh) | 一种基于分层处理虚拟视点合成方法 | |
CN105657401A (zh) | 一种裸眼3d显示方法、系统及裸眼3d显示装置 | |
CN104469355B (zh) | 基于显著自适应的视觉舒适预测及非线性映射的视觉舒适增强方法 | |
CN104159099A (zh) | 一种3d立体影视制作中双目立体摄像机的设置方法 | |
Guo et al. | Adaptive estimation of depth map for two-dimensional to three-dimensional stereoscopic conversion | |
US20140063206A1 (en) | System and method of viewer centric depth adjustment | |
CN108616745A (zh) | 2d自动转3d方法和系统 | |
CN105208369B (zh) | 一种立体图像视觉舒适度增强方法 | |
CN106447623A (zh) | 一种时域一致性深度感知增强方法 | |
CN104299258A (zh) | 立体图形处理方法和设备 | |
CN105959679A (zh) | 一种立体图像视觉舒适度和深度感联合优化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20151202 |