CN116485783A - 一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法 - Google Patents

一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法 Download PDF

Info

Publication number
CN116485783A
CN116485783A CN202310568829.0A CN202310568829A CN116485783A CN 116485783 A CN116485783 A CN 116485783A CN 202310568829 A CN202310568829 A CN 202310568829A CN 116485783 A CN116485783 A CN 116485783A
Authority
CN
China
Prior art keywords
branch
network
cloth
features
flaw detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310568829.0A
Other languages
English (en)
Inventor
李笑岚
应铭
邵泽源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Gongshang University
Original Assignee
Zhejiang Gongshang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Gongshang University filed Critical Zhejiang Gongshang University
Priority to CN202310568829.0A priority Critical patent/CN116485783A/zh
Publication of CN116485783A publication Critical patent/CN116485783A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30124Fabrics; Textile; Paper
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

本发明针对布匹瑕疵本身形状不规则、长宽比例不均匀,包含背景纹理的情况,在改进YOLOv7的基础上,设计了新的模块DW‑ELAN和MPCOA。本发明首先采集了工业布匹瑕疵数据,将数据输入到网络结构中推理出结果,对检测出的布匹瑕疵进行标注。本发明针对布匹瑕疵检测难度大的特点,提出了一种基于深度分离层聚合和空间增强注意力的布匹瑕疵检测方法,该方法优化了YOLOv7的网络结构,基于ELAN提出了深度分离层聚合模块DW‑ELAN,使用5×5的深度可分离卷积替换3×3卷积,增大了网络感受野,提高网络对关键信息的提取能力。同时引入空间增强注意力模块MPCOA,替代了原本用最大池化层和卷积两个分支组成的MP2模块,利用注意力机制将空间中的关键特征信息保留到深层结构中,减少了一些位置信息的丢失,有效提高布匹瑕疵检测的准确率,使细节信息能在网络深层更好地表达。从总体上说,该网络的设计能有效地对布匹瑕疵进行实现检测,满足实际应用的需要。

Description

一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检 测方法
技术领域
本发明属于计算机视觉中的目标检测领域,改进了YOLOv7的网络结构模块,设计了一种实时布匹瑕疵目标检测网络,该网络能对工业上的布匹瑕疵进行准确实时的检测。
背景技术
近几年来,随着深度学习的快速发展,计算机相关领域技术的不断提升和计算机基础硬件的升级,为深度学习的蓬勃发展提供了更便利的条件。
基于深度学习的目标检测方法已经越来越多应用在工业生产上,例如应用在布匹瑕疵的检测上。在布匹的生产过程中,布匹表面往往会产生不同种类的瑕疵,不同瑕疵之间的形状差异较大,通常表现为形状不规则、长宽比例不均匀的目标,并且布匹的瑕疵图片中很难找到稳定的关键性特征,同时在瑕疵中难免会包含各种各样的背景,如布匹的纹理、颜色等导致布匹的检测难度较大。
YOLOv7作为2022年提出的效果非常优秀的目标检测模型,在大多数领域上都能取得相当不错的检测效果,给目标检测领域的后续发展提供了很好的借鉴作用。但由于布匹瑕疵自身带有的特性,给目标检测带来了许多难题,在实际应用中,YOLOv7的布匹瑕疵检测效果做不到令人满意,仍然存在改进的空间。
为了解决以往方法在布匹中无法有效提取瑕疵特征以及布匹瑕疵质量检测的实时性问题,本发明设计了一种实时布匹瑕疵目标检测网络。该网络在YOLOv7网络的基础上,增加了深度分离层聚合和空间增强注意力模块,有效解决了布匹瑕疵检测的问题,提高了网络的检测性能,使网络能更好地学习到布匹的关键特征,扩大网络的感受野,提取上下文关键信息,提高在下游任务布匹瑕疵检测中对瑕疵目标形状和纹理的吸收归纳。做到了对布匹产品中常见的瑕疵进行准确的实时检测。
发明内容
本发明针对布匹瑕疵检测难度大的特点,提出了一种基于深度分离层聚合和空间增强注意力的布匹瑕疵检测方法,该方法优化了YOLOv7的网络结构,基于ELAN提出了深度分离层聚合模块DW-ELAN,使用5×5的深度可分离卷积替换3×3卷积,增大了网络感受野,提高网络对关键信息的提取能力。同时引入空间增强注意力模块MPCOA,替代了原本用最大池化层和卷积两个分支组成的MP2模块,利用注意力机制将空间中的关键特征信息保留到深层结构中,减少了一些位置信息的丢失,有效提高布匹瑕疵检测的准确率。
本发明包含以下步骤:
步骤1:使用工业相机在实地工厂对布匹瑕疵数据进行采集。
步骤2:基于YOLOv7的网络结构,对以下模块进行改进:在YOLOv7的主干网络中,把所有的四个ELAN模块替换成深度分离层聚合DW-ELAN模块,主要目的是通过引入大尺度的5×5深度可分离卷积核来替换ELAN模块中的普通3×3卷积来扩大感受野,在更大范围内对瑕疵特征进行提取。
步骤3:在YOLOv7网络的头部结构中,把原本的一个分支为池化层和1×1卷积层以及另一分支为1×1卷积层和3×3卷积层的MP2模块,都替换成空间增强注意力MPCOA模块。MPCOA模块主要包含最大池化卷积层MP和1×1卷积层、短路连接和空间注意力三个分支。和MP2模块一样,特征图经过MPCOA模块之后它的特征图尺寸不变、通道数减半。MPCOA模块利用了注意力机制,对卷积堆叠的部分进行改进,使用一维全局池化从水平和垂直两个方向对输入的特征图进行特征聚合,分为两个分支分别带有两个方向的位置信息,把特征中的方向位置信息进行编码保留到深层网络,指导深层网络中对布匹瑕疵位置的预测,有效提升布匹瑕疵检测的准确率。
步骤4:将待检测的可能包含布匹瑕疵的图片,输入至改进后的布匹检测网络进行推理。
本发明提供的技术方案的改进效果是:本发明主要针对布匹瑕疵形状不规则、长宽比例不均匀、特征不明显,导致使用深度学习方法进行瑕疵的难度大大提升。本发明提出的基于YOLOv7的优化结构提出了新的深度分离层聚合和空间增强注意力模块,分别替换了原有的ELAN和MP2模块。增强了网络对细节特征的敏感性,提高了网络的检测性能,使网络能更好地学习到布匹的关键特征。使用5×5的深度可分离卷积替换3×3卷积,增大了网络感受野,提高网络对关键信息的提取能力。并且利用注意力机制对特征中需要重点关注的特征放大,使网络提取特征更完整丰富,使得关键特征信息得以保留到深层结构中,增加了特征的表现力,更适配于本发明所提出的对布匹瑕疵的实施准确检测。
附图说明
为了更清楚的展示本发明的网络结构以及训练过程,下面将对实施例中所需要的附图做以简单的介绍。
图1为本发明的布匹瑕疵检测流程。
图2为本发明设计的深度分离层聚合模块DW-ELAN结构图。
图3为本发明设计的空间增强注意力模块MPCOA结构图。
具体实施方式
为了更具体地描述本发明,下面将结合附图以及具体实施方式对本发明的方案进行详细说明。
本发明设计了一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法,布匹瑕疵检测的工作流程如图1所示,其主要步骤如下:
1.布匹瑕疵检测网络实时读取布匹图像;
2.布匹图像将输入到网络模型中,进行前向推理过程;
3.进入网络判断布匹图像中是否存在瑕疵,如果有瑕疵则进入步骤4,否则进入步骤5;
4.检测系统将对布匹瑕疵进行标注,并提示该图像存在瑕疵;
5.继续将未读取的图像输入网络模型,如果存在未读取图像则回到步骤1,否则结束此次检测。
其中的网络模型在改进YOLOv7模块的基础上得到,具体实施方式如下:步骤1:使用工业相机在实地工厂对布匹瑕疵数据进行采集。
步骤2:在YOLOv7的主干网络中,包含有四个ELAN模块,它是一个高效的网络结构,能让网络能够学习到更多的特征,并且提高鲁棒性,ELAN模块的输入输出的特征图大小、通道数相同。
把YOLOv7的所有ELAN模块都替换成深度分离层聚合DW-ELAN模块,主要思路是将四个3×3卷积替换成四个5×5的深度可分离卷积。DW-ELAN模块具体结构如图2,共分为4个分支。首先对输入的特征图使用3×3卷积得到提取的特征,之后将提取的特征分别通过2个1×1的卷积可以得到分支3和分支4,将分支3经过2个5×5的深度可分离卷积可以得到分支1的结果,而分支2的结果是分支3经过4个5×5的深度可分离卷积得到。最后将在四条分支下得到的特征在通道维度进行拼接,可以得到DW-ELAN的来自不同感受野的融合特征:
输出=concat(分支1, 分支2, 分支3, 分支4 )
其中concat( )表示特征在通道维度拼接,最终得到的特征再经过一个1×1的卷积层改变维度后,得到图像在融合深度分离层聚合模块后提取的特征。通过深度分离层聚合DW-ELAN模块的5×5大尺度深度可分离卷积,主要是为了增大该模块的感受野,因为在深度学习中,模型的感受野通常表示网络内部的对原图像的感受范围的大小,大感受野下对关键特征的提取更加有效。因此在布匹瑕疵检测中应用大尺度的卷积能够提高网络的特征提取能力。
而应用深度可分离卷积的优点是可以大幅度地减少卷积的参数,深度可分离卷积能在不牺牲模型性能的前提下显著提高效率。同时减轻由于使用深度可分离5×5卷积替换3×3卷积对模型带来的额外计算量的影响,提高网络检测的总体性能,降低模型训练和推理的成本。该模块结构的输入输出特征图大小、通道数相同。
步骤3:在YOLOv7网络的头部结构中,包含有两个MP2模块,它的组成为一个分支为池化层和1×1卷积层以及另一分支为1×1卷积层和3×3卷积层,该模块的输出会将输入的通道数扩大一倍。
把YOLOv7的所有MP2模块,都替换成空间增强注意力MPCOA模块。MPCOA模块具体结构如图3,共分为3个分支。第一个分支中输入将通过一个最大池化卷积层MP(主要由最大池化层和1×1卷积组合而成)和1×1卷积层对池化后的结果提取特征,提取特征后的结果为分支1。分支2是一个短路连接,相当于对输入进行了简单的复制,类似于电路中的“短路”。通过增加短路连接,可以提高网络的鲁棒性和稳定性。分支3分为两部分,主要思想是对输入特征通过注意力机制对空间位置信息进行增强,具体实现为首先对输入进行水平和垂直方向的一维全局池化,图3中的X-P和Y-P分别代表了水平方向和垂直方向的一维全局池化,对得到的两个结果在通道维度进行拼接,此时就得到了两个方向上的位置特征。将这两个方向的特征经过1×1卷积层和激活函数RELU得到一对拥有方向感知的特征图。最后分别经过1×1卷积层后,两个特征图进行向量乘法结合为空间增强的位置信息,记为分支3。
将在三条分支下得到的特征在通道维度进行拼接,可以得到增强的注意力信息的提取:
输出=concat(分支1, 分支2, 分支3 )
其中concat( )表示特征在通道维度拼接。MPCOA模块实现了空间位置信息的提取,将信息传递到后续深层的网络中,对后续网络结构实现了空间位置信息的增强,丰富了深层网络中的特征,能提高模型对空间中目标位置信息的敏感程度。该模块结构输入输出的特征图大小不变,通道数将扩大一倍。
步骤4:把包含布匹瑕疵的图片输入到布匹瑕疵检测网络中,进行前向推理。根据前向推理的结果在布匹原图上画出瑕疵检测框,获得可视化的瑕疵检测效果。网络的布匹瑕疵检测过程结束。
综上,本发明针对布匹瑕疵本身形状不规则、长宽比例不均匀,包含背景纹理的情况,在改进YOLOv7的基础上,设计了新的模块DW-ELAN和MPCOA。本发明首先采集了工业布匹瑕疵数据,将数据输入到网络结构中推理出结果,对检测出的布匹瑕疵进行标注。本发明提出了新的深度分离层聚合模块DW-ELAN,能有效增大网络的感受野,融合深层和浅层的特征,更好地提取上下文的关键信息。还提出了空间增强注意力模块MPCOA,用来替换原本的MP2模块,减少了位置信息的丢失,使细节信息能在网络深层更好地表达。从总体上说,该网络的设计能有效地对布匹瑕疵进行实现检测,满足实际应用的需要。

Claims (3)

1.本发明设计了一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法,其中的网络模型在改进YOLOv7模块的基础上得到,其特征在于具体实施方式如下:
步骤1:使用工业相机在实地工厂对布匹瑕疵数据进行采集;
步骤2:在YOLOv7的主干网络中,包含有四个ELAN模块,它是一个高效的网络结构,能让网络能够学习到更多的特征,并且提高鲁棒性,ELAN模块的输入输出的特征图大小、通道数相同。把YOLOv7的所有ELAN模块,都替换成深度分离层聚合DW-ELAN模块。主要思路是将四个3×3卷积替换成四个5×5的深度可分离卷积。DW-ELAN模块具体结构共分为4个分支。首先对输入的特征图使用3×3卷积得到提取的特征,之后将提取的特征分别通过2个1×1的卷积可以得到分支3和分支4,将分支3经过2个5×5的深度可分离卷积可以得到分支1的结果,而分支2的结果是分支3经过4个5×5的深度可分离卷积得到,得到大感受野下对关键的特征的提取;
步骤3:在YOLOv7网络的头部结构中,包含有两个MP2模块,它的组成为一个分支为池化层和1×1卷积层以及另一分支为1×1卷积层和3×3卷积层,该模块的输出会将输入的通道数扩大一倍。把YOLOv7的所有MP2模块,都替换成空间增强注意力MPCOA模块。MPCOA模块具体结构共分为3个分支。第一个分支中输入将通过一个最大池化卷积层MP和1×1卷积层对池化后的结果提取特征,提取特征后的结果为分支1。分支2是一个短路连接,不对输入进行任何操作,相当于对输入进行了简单的复制,通过增加短路连接,可以提高网络的鲁棒性和稳定性。分支3分为两部分,主要思想是对输入特征通过注意力机制对空间位置信息进行增强,具体实现为首先对输入进行水平和垂直方向的一维全局池化X-P和Y-P,对得到的两个结果在通道维度进行拼接,此时就得到了两个方向上的位置特征。将这两个方向的特征经过1×1卷积层和激活函数RELU得到一对拥有方向感知的特征图。最后分别经过1×1卷积层后,两个特征图进行向量乘法结合为空间增强后的位置信息,记为分支3;
步骤4:把包含布匹瑕疵的图片输入到布匹瑕疵检测网络中,进行前向推理。根据前向推理的结果在布匹原图上画出瑕疵检测框,获得可视化的瑕疵检测效果。网络的布匹瑕疵检测过程结束。
2.根据权利要求1所述的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法,其特征在于:
对步骤2中四条分支下得到的特征在通道维度进行拼接,可以得到DW-ELAN的来自不同感受野的融合特征:输出=concat(分支1, 分支2, 分支3, 分支4 )
其中concat( )表示特征在通道维度拼接,最终得到的特征再经过一个1×1的卷积层改变维度后,得到图像在融合深度分离层聚合模块后提取的特征。该模块结构的输入输出特征图大小、通道数相同。
3.根据权利要求1所述的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法,其特征在于:
将在步骤3中的三条分支下得到的特征在通道维度进行拼接,可以得到增强的注意力信息的提取:输出=concat(分支1, 分支2, 分支3 )
其中concat( )表示特征在通道维度拼接。MPCOA模块实现了空间位置信息的提取,将信息传递到后续深层的网络中,对后续网络结构实现了空间位置信息的增强,丰富了深层网络中的特征,能提高模型对空间中目标位置信息的敏感程度。该模块结构输入输出的特征图大小不变,通道数将扩大一倍。
CN202310568829.0A 2023-05-19 2023-05-19 一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法 Pending CN116485783A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310568829.0A CN116485783A (zh) 2023-05-19 2023-05-19 一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310568829.0A CN116485783A (zh) 2023-05-19 2023-05-19 一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法

Publications (1)

Publication Number Publication Date
CN116485783A true CN116485783A (zh) 2023-07-25

Family

ID=87217913

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310568829.0A Pending CN116485783A (zh) 2023-05-19 2023-05-19 一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法

Country Status (1)

Country Link
CN (1) CN116485783A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118014998A (zh) * 2024-04-09 2024-05-10 深圳市富安娜艺术家居有限公司 基于机器视觉的床单布匹检测方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118014998A (zh) * 2024-04-09 2024-05-10 深圳市富安娜艺术家居有限公司 基于机器视觉的床单布匹检测方法及系统
CN118014998B (zh) * 2024-04-09 2024-06-11 深圳市富安娜艺术家居有限公司 基于机器视觉的床单布匹检测方法及系统

Similar Documents

Publication Publication Date Title
CN110378222B (zh) 一种输电线路防震锤目标检测与缺陷识别方法及装置
CN112950606A (zh) 一种基于小样本的手机屏幕缺陷分割方法
CN113609896A (zh) 基于对偶相关注意力的对象级遥感变化检测方法及系统
CN112651406B (zh) 一种深度感知和多模态自动融合的rgb-d显著性目标检测方法
CN111738994B (zh) 一种轻量级的pcb缺陷检测方法
CN112288758B (zh) 一种电力设备红外与可见光图像配准方法
CN116704357B (zh) 基于YOLOv7的堤坝边坡滑坡智能识别与预警方法
CN116485783A (zh) 一种改进的深度分离层聚合和空间增强注意力的布匹瑕疵检测方法
CN113192124A (zh) 一种基于孪生网络的图像目标定位方法
CN110827312A (zh) 一种基于协同视觉注意力神经网络的学习方法
CN111368637B (zh) 一种基于多掩模卷积神经网络的搬运机器人识别目标方法
CN102663777A (zh) 基于多视点视频的目标跟踪方法及系统
CN113657423A (zh) 适用于小体积零件与堆叠零件的目标检测方法及其应用
CN113361496A (zh) 一种基于U-Net的城市建成区统计方法
CN114926826A (zh) 场景文本检测系统
CN116805360B (zh) 一种基于双流门控渐进优化网络的显著目标检测方法
CN113496480A (zh) 一种焊缝图像缺陷的检测方法
CN116994068A (zh) 一种基于知识蒸馏的目标检测方法及装置
CN115830420A (zh) 一种基于边界可变形卷积引导的rgb-d显著性目标检测方法
CN116051950A (zh) 跨层次跨模态双注意力融合的三流rgb-d显著性目标检测
CN111539922B (zh) 基于多任务网络的单目深度估计与表面法向量估计方法
CN114693951A (zh) 一种基于全局上下文信息探索的rgb-d显著性目标检测方法
CN112561001A (zh) 一种基于时空特征可变形卷积融合的视频目标检测方法
CN116704487B (zh) 一种基于Yolov5s网络和CRNN的车牌检测与识别方法
Zhang et al. Research on Building Extraction Method in Remote Sensing Images Based on Two-Channel Cascade Strategy

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20230725

WD01 Invention patent application deemed withdrawn after publication