CN104899882A - 一种复杂场景的深度获取方法 - Google Patents
一种复杂场景的深度获取方法 Download PDFInfo
- Publication number
- CN104899882A CN104899882A CN201510282514.5A CN201510282514A CN104899882A CN 104899882 A CN104899882 A CN 104899882A CN 201510282514 A CN201510282514 A CN 201510282514A CN 104899882 A CN104899882 A CN 104899882A
- Authority
- CN
- China
- Prior art keywords
- depth
- mrow
- speckle
- msub
- density
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 102000003712 Complement factor B Human genes 0.000 claims description 6
- 108090000056 Complement factor B Proteins 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000003238 somatosensory effect Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种复杂场景的深度获取方法,其能够提高获取深度图像的精度,进一步提高鲁棒性。这种复杂场景的深度获取方法,包括步骤:(a)利用散斑图像信噪比和深度精度与散斑密度之间的关系,设计编码多密码结构光图案,并通过光发射设备分别投射到待测物体上,生成投射的混合多密码结构光图案;(b)生成多密度混合参考图像,用与光发射设备成一定角度的相机拍摄记录下待测物体被投射编码结构光图案调制后的图像;(c)实现投射结构光图案与拍摄调制后的图像的快速匹配,进一步得到对应匹配点在投射前后的偏移量;(d)利用偏移量计算匹配点的深度值,实现待测物体的深度数据获取。
Description
技术领域
本发明属于图像处理的技术领域,具体地涉及一种复杂场景的深度获取方法,主要适用于多待测物体之间深度相差较大的复杂场景。
背景技术
基于结构光(Structured Light Illumination,SLI)深度获取方法是一种非接触、主动式方法,因其原理简单、精度高、鲁棒性高而广泛用于各种场景深度获取。但是由于受限于光学器件本身的限制以及待测物体本身反射、结构纹理复杂等原因,导致此方法存在深度获取速度及精度无法匹配的问题,很难同时满足需求。为了解决这个问题,研究人员提出了很多编码方法。根据编码方法及投射方式的不同可以分为时间复用编码方法、空间复用编码方法和时空复用编码方法。
激光散斑(Laser Speckle)作为空间复用编码结构光的一种,利用光学原理来生成随机散斑点投射到待测物体表面,经过图像分析等手段对表面形成的纹理进行解码得出特征点(散斑)的位置偏移量,最终根据三角测量原理利用偏移量计算得到待测物体深度数据。其解码过程需要检测图像中的每个特征光斑的位置和大小,利用散斑点局部相异性进行解码,不仅计算复杂度高,分辨率与精度仍然较低。比如微软KINECT体感数据采集设备利用light coding技术,用的激光散斑获取人体深度数据方法。
但是,现有基于散斑结构光进行深度获取存在方法在编码散斑模式存在一个显而易见的缺陷:均未认识到测量的深度的精度依赖于散斑的密度和散斑图像的信噪比;散斑图像的信噪比与散斑的大小、待测物体深度是相关的。尤其当场景中存在深度距离相差比较大的待测物体的时,无法运用单密度结构光散斑模式计算得到每个待测物体较精确的深度数据。
发明内容
本发明的技术解决问题是:克服现有单密度获取复杂场景深度数据不精确等技术的不足,提供一种新的复杂场景的深度获取方法,其能保证提高获场景深度图像的数据精度的同时,进一步提高鲁棒性。
本发明的技术解决方案是:
(a)设计编码多密码结构光图案,并通过光发射设备分别投射到待测物体上,生成投射的混合多密码结构光图案;
(b)生成多密度混合参考图像,用与光发射设备成一定角度的相机拍摄记录下待测物体被投射编码结构光图案调制后的图像;
(c)实现投射结构光图案与拍摄调制后的图像的快速匹配,进一步得到对应匹配点在投射前后的偏移量;
(d)利用偏移量计算匹配点的深度值,实现待测物体的深度数据获取。
本发明将所生成的多密度散斑结构光投射到场景中,拍摄获得相应的调制图像。由于不同密度的散斑图像具有不同的匹配特性。密度大的散斑图像中散斑尺寸小,匹配特征点多。密度小的散斑图像中散斑尺寸大,匹配的鲁棒性好。利用距离与散斑最佳密度之间的关系,生成自适应密度结构光,再根据局部特征匹配算法减少全局匹配算法带来的误差,所以能够提高获取深度图像的精度,进一步提高鲁棒性。
附图说明
图1示出了根据本发明的系统方案的物理原型。
图2是基于散斑计算待测物体深度的示意图。
图3是多密度自适应结构光生成的流程示意图
具体实施方式
这种复杂场景的深度获取方法主要包含以下几个步骤:
(1)最佳的散斑密度模式与待测目标实际深度相关,利用公式(3)设计不同实际深度对应的不同的密度的结构光图案模式:P0,P1,…,PM;
k(r)=round{[sin(2πr/T)+1]*α+1} (3)
其中r表示行序,k(r)表示每行的密码,α是一个控制k(r)为范围在1,2…N的整数的标量因子,T为行数。
(2)投射步骤(1)生成的M幅密度不同的激光散斑图案P0,P1,…,PM,相应得到M幅待测物体调制图像I0,I1,…,IM,利用公式(1)生成Pt:
(3)根据局部深度距离对应最佳投射密度的散斑结构光预设多个密度的参考图像R0,R1,…,RM;并利用投影坐标系与相机坐标系转换关系,求解得到公式(1)中投影坐标系下区域因子Bt在相机坐标系下的相对区域因子B′t;
(4)利用步骤(3)和公式(2)得到的B′t生成Pt相对应的参考图像Rt;
(5)对每一个子区域运用特征点(散斑)匹配算法进行匹配操作,到结构光图案与被投射图案调制的后图像的对应点,进一步得到对应匹配点的偏移量ΔLt;
(6)根据步骤(5)的偏移量ΔLt,估算待测物体的深度图。
本发明将公式(1)所生成的多密度散斑结构光投射到场景中,拍摄获得相应的调制后图像。由于不同密度的散斑图像具有不同的匹配特性。密度大的散斑图像中散斑尺寸小,匹配多。密度小的散斑图像中散斑尺寸大,匹配的鲁棒性好。利用距离与散斑最佳密度之间的关系,生成自适应密度结构光,再根据局部特征匹配算法减少全局匹配算法带来的误差,所以能够提高获取深度图像的精度,进一步提高鲁棒性。
以下对本发明进行更详细的说明。
基于结构光深度获取方法是将特定编码的结构光图案通过投影仪等光发射设备投射到待测物体上,并用与光发射设备成一定角度的相机拍摄记录下待测物体被投射图案调制的后图像,通过匹配算法找到投射结构光图案与记录下的调制图案的对应点,最后根据三角测距原理计算得到待测物体的深度,本文系统方案的物理原型如图1所示。
将整个过程抽象成数学模型,如图2所示。针对单密度模式,在理想状态下,待测物体深度和偏移量关系的数学表达式如下:
其中ΔD是待测物体离参考平面的距离,ΔL是待测点与参考图像上的对应参考点的偏移量。在测量系统中激光发射器与相机之间的基值S远远大于偏移量ΔL,则公式(4)等价于公式(5):
其中ω=D/S,在本系统模型中是一常数,ΔD与ΔL成正比关系,因此深度图像的距离分辨率取决于图像的分辨率。
另外根据小孔成像原理,可以得出公式(6)表示的ΔL与实际成像距离的关系:
其中f是拍摄所用相机的焦距,是一个常数;row×col是成像分辨率大小;D为可测距离。进一步由公式(5)、(6)得:
由公式(7)可以进一步得出结论:深度图像的空间分辨率与散斑的颗粒度和图像特征点(散斑)匹配的精度相关。
不失一般性,单密度模式情况下,假设为待测物体t时刻测得的深度值,Dt为待测物体真实的深度值,P0是单密度散斑图,f0是匹配算法,则此时Dt与数学关系模型如下:
由上述模式可知,单密度散斑结构光在任何时刻都使用相同模式的投射图案,没有考虑投身结构光的散斑密度受Dt决定这个事实。对于复杂场景中存在深度差相对较大的待测物体时,无法提升测量深度的精度。因此,需要将单密度散斑结构光拓展成多密度自适应的散斑结构光。
假设在一定范围内,对于复杂场景中不同的深度的待测物体则对应不同的密度的散斑结构光模式,用Pt表示,t>1,则对于某一个时刻t,最佳的真实距离与测量深度则可以表示如下:
在基于结构光进行深度计算时,一般满足的假设条件就是待测物体深度数据在时间上是连续的,所以可以用前一时刻得到的来选择此时的最佳散斑密度模式,即
相同的原理,我们可以对一个复杂场景不同深度的待测对象利用最佳散斑密度模式提升深度精度,最终的散斑密度模式如下所表示:
复杂场景中会存在两个及两个以上不同深度的待测物体,每个待测物体及相邻区域均采用上述的方法进行投射图案的自适应融合生成。然而,我们希望最终是投射的是不同实际距离区域对应不同密度的混合结构光图案,因此需要进去各t时刻的Pt进行区域分割操作。这里我们根据各个区域一定的深度值作为阈值,进行投射图案无重叠区域分割,得到场景各个部分最佳局部投射图案,即公式(1)所示:
将公式(1)所生成的多密度散斑结构光投射到场景中,拍摄获得相应的调制后图像。由于不同密度的散斑图像具有不同的匹配特性。密度大的散斑图像中散斑尺寸小,匹配特征点多。密度小的散斑图像中散斑尺寸大,匹配的鲁棒性好。我们采用多密度散斑图像匹配方法来提高匹配的准确性。
多密度结构解码算法:
①根据局部深度距离对应最佳投射密度的散斑结构光预设多个密度的参考图像R0,R1,…,RM;
②投射M幅密度不同的激光散斑P0,P1,…,PM,得到M幅待测物体调制图像I0,I1,…,IM,利用公式(1)生成Pt:
③求解得到公式(10)中投影坐标系下区域因子Bt在相机坐标系下的相对区域因子B′t;
④利用B′t用公式(2)生成Pt相对应的参考图像Rt;
⑤对每一个子区域运用特征点(散斑)匹配算法进行匹配操作计算特征点(散斑)的偏移量ΔLt;
⑥根据⑤的结果估算待测物体的深度图。
利用距离与散斑最佳密度之间的关系,生成自适应密度结构光,再根据局部特征匹配算法减少全局匹配算法带来的误差,复杂场景深度精度有明显的提升。
本发明中的提议已经被整合到高精度非接触式体感数据采集仪深度获取部分,运用多密度自适应结构光,进行高精度深度获取,充分考虑了深度图像的空间分辨率与散斑的颗粒度和图像特征点匹配的精度相关特性,运用局部渐近匹配方法,进一步提高匹配准确度,减少误差,提高深度图像精度。从主观来说,本提议所得深度图从测量范围、测量精度都比用单密度散斑结构光获取深度图像更好。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属本发明技术方案的保护范围。
Claims (3)
1.一种复杂场景的深度获取方法,其特征在于:包括以下步骤:
(a)利用散斑图像信噪比和深度精度与散斑密度之间的关系,设计编码多密码结构光图案,并通过光发射设备分别投射到待测物体上,生成投射的混合多密码结构光图案;
(b)生成多密度混合参考图像,用与光发射设备成一定角度的相机拍摄记录下待测物体被投射编码结构光图案调制后的图像;
(c)实现投射结构光图案与拍摄调制后的图像的快速匹配,进一步得到对应匹配点在投射前后的偏移量;
(d)利用偏移量计算匹配点的深度值,实现待测物体的深度数据获取。
2.根据权利要求1所述的一种复杂场景的深度获取方法,其特征在于:
(1)根据最佳的散斑密度模式与待测目标实际深度相关性,设计不同实际深度对应的不同的密度的结构光图案模式:
P0,P1,…,PM;
(2)投射M幅密度不同的激光散斑图案P0,P1,…,PM,利用公式(1)生成混合密度投射图案Pt
其中,代表局部所对应的最佳密度投射结构光图案,Bt为局部区域因子,其所在坐标系为投影坐标系,控制最终组成不重叠的投射单帧投射散斑结构光图案;
(3)根据局部深度距离对应最佳投射密度的散斑结构光预设多个密度的参考图像R0,R1,…,RM;并利用投影坐标系与相机坐标系转换关系,求解得到公式(1)中投影坐标系下区域因子Bt在相机坐标系下的相对区域因子B′t;
(4)利用步骤(3)得到的B′t生成Pt相对应的参考图像Rt;
(5)对每一个子区域运用特征点(散斑)匹配算法进行匹配操作,到结构光图案与被投射图案调制的后图像的对应点,进一步得到对应匹配点的偏移量ΔLt;
(6)根据步骤(5)的偏移量ΔLt,估算待测物体的深度图。
3.根据权利要求1所述的复杂场景的深度获取方法,其特征在于:投射的混合多密度散斑模式的设计与相应对应多密度参考图像的生成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510282514.5A CN104899882A (zh) | 2015-05-28 | 2015-05-28 | 一种复杂场景的深度获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510282514.5A CN104899882A (zh) | 2015-05-28 | 2015-05-28 | 一种复杂场景的深度获取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104899882A true CN104899882A (zh) | 2015-09-09 |
Family
ID=54032527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510282514.5A Pending CN104899882A (zh) | 2015-05-28 | 2015-05-28 | 一种复杂场景的深度获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104899882A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106569330A (zh) * | 2016-10-28 | 2017-04-19 | 深圳奥比中光科技有限公司 | 一种光学图案的设计方法、面阵投影装置及一种深度相机 |
CN106651794A (zh) * | 2016-12-01 | 2017-05-10 | 北京航空航天大学 | 一种基于虚拟相机的投影散斑校正方法 |
CN106714337A (zh) * | 2016-12-30 | 2017-05-24 | 贵州华城高新科技有限公司 | 一种移动式服务网络管理平台 |
CN106780907A (zh) * | 2016-12-30 | 2017-05-31 | 贵州华城高新科技有限公司 | 一种用于社区管理的智能系统及其管理方法 |
CN107860337A (zh) * | 2017-10-11 | 2018-03-30 | 华天科技(昆山)电子有限公司 | 基于阵列相机的结构光三维重建方法与装置 |
CN108038898A (zh) * | 2017-11-03 | 2018-05-15 | 华中科技大学 | 一种单帧二值结构光编解码方法 |
CN108710215A (zh) * | 2018-06-20 | 2018-10-26 | 深圳阜时科技有限公司 | 一种光源模组、3d成像装置、身份识别装置及电子设备 |
CN109272563A (zh) * | 2018-08-28 | 2019-01-25 | 广州图语信息科技有限公司 | 基于确定性规则的结构光构建方法、装置及处理终端 |
CN109299662A (zh) * | 2018-08-24 | 2019-02-01 | 上海图漾信息科技有限公司 | 深度数据计算设备与方法及人脸识别设备 |
CN110070584A (zh) * | 2018-01-23 | 2019-07-30 | 宁波盈芯信息科技有限公司 | 一种密度可调的散斑编码图案生成方法及装置 |
CN110657785A (zh) * | 2019-09-02 | 2020-01-07 | 清华大学 | 一种高效的场景深度信息获取方法及系统 |
CN111080687A (zh) * | 2018-10-19 | 2020-04-28 | 三星电子株式会社 | 用于主动深度感测的方法和装置及其校准方法 |
CN111626928A (zh) * | 2020-04-28 | 2020-09-04 | Oppo广东移动通信有限公司 | 深度图像生成方法及装置、存储介质和电子设备 |
-
2015
- 2015-05-28 CN CN201510282514.5A patent/CN104899882A/zh active Pending
Non-Patent Citations (1)
Title |
---|
QIANJUN WU等: "《Digital Home(ICDH),2014 5th International Conference on》", 29 December 2014 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106569330B (zh) * | 2016-10-28 | 2019-07-12 | 深圳奥比中光科技有限公司 | 一种光学图案的设计方法、面阵投影装置及一种深度相机 |
CN106569330A (zh) * | 2016-10-28 | 2017-04-19 | 深圳奥比中光科技有限公司 | 一种光学图案的设计方法、面阵投影装置及一种深度相机 |
CN106651794A (zh) * | 2016-12-01 | 2017-05-10 | 北京航空航天大学 | 一种基于虚拟相机的投影散斑校正方法 |
CN106714337A (zh) * | 2016-12-30 | 2017-05-24 | 贵州华城高新科技有限公司 | 一种移动式服务网络管理平台 |
CN106780907A (zh) * | 2016-12-30 | 2017-05-31 | 贵州华城高新科技有限公司 | 一种用于社区管理的智能系统及其管理方法 |
CN106780907B (zh) * | 2016-12-30 | 2017-12-15 | 贵州华城高新科技有限公司 | 一种用于社区管理的智能系统及其管理方法 |
CN107860337A (zh) * | 2017-10-11 | 2018-03-30 | 华天科技(昆山)电子有限公司 | 基于阵列相机的结构光三维重建方法与装置 |
CN107860337B (zh) * | 2017-10-11 | 2020-03-24 | 华天科技(昆山)电子有限公司 | 基于阵列相机的结构光三维重建方法与装置 |
CN108038898A (zh) * | 2017-11-03 | 2018-05-15 | 华中科技大学 | 一种单帧二值结构光编解码方法 |
CN108038898B (zh) * | 2017-11-03 | 2020-06-30 | 华中科技大学 | 一种单帧二值结构光编解码方法 |
CN110070584A (zh) * | 2018-01-23 | 2019-07-30 | 宁波盈芯信息科技有限公司 | 一种密度可调的散斑编码图案生成方法及装置 |
CN108710215A (zh) * | 2018-06-20 | 2018-10-26 | 深圳阜时科技有限公司 | 一种光源模组、3d成像装置、身份识别装置及电子设备 |
CN109299662A (zh) * | 2018-08-24 | 2019-02-01 | 上海图漾信息科技有限公司 | 深度数据计算设备与方法及人脸识别设备 |
CN109299662B (zh) * | 2018-08-24 | 2022-04-12 | 上海图漾信息科技有限公司 | 深度数据计算设备与方法及人脸识别设备 |
CN109272563A (zh) * | 2018-08-28 | 2019-01-25 | 广州图语信息科技有限公司 | 基于确定性规则的结构光构建方法、装置及处理终端 |
CN109272563B (zh) * | 2018-08-28 | 2022-12-27 | 广州图语信息科技有限公司 | 基于确定性规则的结构光构建方法、装置及处理终端 |
CN111080687A (zh) * | 2018-10-19 | 2020-04-28 | 三星电子株式会社 | 用于主动深度感测的方法和装置及其校准方法 |
CN110657785A (zh) * | 2019-09-02 | 2020-01-07 | 清华大学 | 一种高效的场景深度信息获取方法及系统 |
CN110657785B (zh) * | 2019-09-02 | 2021-05-18 | 清华大学 | 一种高效的场景深度信息获取方法及系统 |
CN111626928A (zh) * | 2020-04-28 | 2020-09-04 | Oppo广东移动通信有限公司 | 深度图像生成方法及装置、存储介质和电子设备 |
CN111626928B (zh) * | 2020-04-28 | 2023-08-25 | Oppo广东移动通信有限公司 | 深度图像生成方法及装置、存储介质和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104899882A (zh) | 一种复杂场景的深度获取方法 | |
KR102714153B1 (ko) | 오브젝트의 3차원 이미지 생성 방법 및 시스템 | |
JP5132832B1 (ja) | 計測装置および情報処理装置 | |
US9501833B2 (en) | Method and system for providing three-dimensional and range inter-planar estimation | |
US11302022B2 (en) | Three-dimensional measurement system and three-dimensional measurement method | |
KR101913321B1 (ko) | 깊이 센서 기반 반사 객체의 형상 취득 방법 및 장치 | |
US8836756B2 (en) | Apparatus and method for acquiring 3D depth information | |
CN107967697B (zh) | 基于彩色随机二元编码结构照明的三维测量方法和系统 | |
CN102445165B (zh) | 基于单幅彩色编码光栅的立体视觉测量方法 | |
CN107860337B (zh) | 基于阵列相机的结构光三维重建方法与装置 | |
JP5633058B1 (ja) | 3次元計測装置及び3次元計測方法 | |
CN105069789B (zh) | 基于编码网格模板的结构光动态场景深度获取方法 | |
CN111563952B (zh) | 基于相位信息与空间纹理特征实现立体匹配方法及系统 | |
Furukawa et al. | One-shot entire shape acquisition method using multiple projectors and cameras | |
CN105303572B (zh) | 基于主被动结合的深度信息获取方法 | |
WO2021109138A1 (zh) | 三维图像传感系统以及相关电子装置以及飞时测距方法 | |
CN112001973B (zh) | 基于数字散斑相关的快速三维人头测量方法 | |
CN106033614A (zh) | 一种强视差下的移动相机运动目标检测方法 | |
JP5761750B2 (ja) | 画像処理方法および装置 | |
CN108895979B (zh) | 线段编码的结构光深度获取方法 | |
Nagamatsu et al. | Self-calibrated dense 3D sensor using multiple cross line-lasers based on light sectioning method and visual odometry | |
Zhang et al. | Evaluation of coded structured light methods using ground truth | |
JP2012160063A (ja) | 球体の検出方法 | |
CN107622522A (zh) | 生成游戏素材的方法及装置 | |
JP2006058092A (ja) | 3次元形状測定装置および方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150909 |
|
RJ01 | Rejection of invention patent application after publication |