CN112200182A - 基于深度学习的晶圆id识别方法和装置 - Google Patents

基于深度学习的晶圆id识别方法和装置 Download PDF

Info

Publication number
CN112200182A
CN112200182A CN202011021877.0A CN202011021877A CN112200182A CN 112200182 A CN112200182 A CN 112200182A CN 202011021877 A CN202011021877 A CN 202011021877A CN 112200182 A CN112200182 A CN 112200182A
Authority
CN
China
Prior art keywords
wafer
neural network
convolution
bottleeck
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011021877.0A
Other languages
English (en)
Inventor
凌云
高丽丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Acceleration Technology Co ltd
Original Assignee
Hangzhou Acceleration Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Acceleration Technology Co ltd filed Critical Hangzhou Acceleration Technology Co ltd
Priority to CN202011021877.0A priority Critical patent/CN112200182A/zh
Publication of CN112200182A publication Critical patent/CN112200182A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

本发明公开了一种基于深度学习的晶圆ID识别方法和装置。该晶圆ID识别方法包括:获取待识别的晶圆ID图像;利用光学文字识别循环卷积神经网络模型,从待识别的晶圆ID图像中获得晶圆ID。其中,光学文字识别循环卷积神经网络包括Mobilenet bottleneck卷积模块。本发明的技术方案利用包括Mobilenet bottleneck卷积模块的循环卷积神经网络模型,实现了对任意长度的晶圆ID字符的快速且准确的识别。

Description

基于深度学习的晶圆ID识别方法和装置
技术领域
本发明涉及晶圆检测技术领域,尤其涉及一种基于深度学习的晶圆ID识别方法和装置。
背景技术
晶圆ID是半导体晶圆的唯一标识。在晶圆检测过程中,准确识别每个晶圆的ID至关重要。通过对晶圆ID的识别可以实现对晶圆的追踪。另外,也可以通过晶圆ID读取晶圆图(Wafer Map),以便确定晶圆为良品或不良品。晶圆ID识别错误会导致测试数据和实物晶圆之间无法对应或出现混淆,进而导致后续工作结果没有意义。
在现有技术中,晶圆ID识别方法主要有两类。
第一类方法先进行字符分割,然后对分割后的字符进行提取特征,进而进行单个字符的识别。由于第一类方法需要先分割、再识别,因此第一类方法耗时较长。另外,如果字符分割效果差,则很容易影响字符识别的精度。
第二类方法涉及基于多标签分类的识别方法。此类方法不用字符分割,直接对每张晶圆ID图像进行特征提取,最后进行多标签分类。但是该方法要求每张晶圆ID图像的类别数相同,即只能识别定长的字符序列,无法识别不定长的字符序列。
因此,需要提供一种能够快速且准确识别不定长度的晶圆ID的方法。
发明内容
有鉴于此,本发明提出了一种基于深度学习的晶圆ID识别方法和装置,其能够解决以上技术问题。
本发明的技术方案如下:
一种基于深度学习的晶圆ID识别方法,包括:
获取待识别的晶圆ID图像;
利用光学文字识别循环卷积神经网络模型,从所述待识别的晶圆ID图像中获得晶圆ID,其中,所述光学文字识别循环卷积神经网络包括Mobilenet bottleneck卷积模块。
根据本发明一优选实施例,所述Mobilenet bottleneck卷积模块采用ReLU激活函数。
根据本发明一优选实施例,所述光学文字识别循环卷积神经网络包括第一卷积层、第一归一化层、第一激活层、第一Mobilenet bottleneck卷积模块、第二Mobilenetbottleneck卷积模块、第三Mobilenet bottleneck卷积模块、第四Mobilenet bottleneck卷积模块、第一长短期记忆层、第二长短期记忆层、全连接层以及Softmax分类层。
根据本发明一优选实施例,所述第一激活层采用Swish激活函数。
根据本发明一优选实施例,所述第一Mobilenet bottleneck卷积模块包括卷积核大小为5×5的可分离卷积,所述第二、第三和第四Mobilenet bottleneck卷积模块分别包括卷积核大小为3×3的可分离卷积。
根据本发明一优选实施例,所述光学文字识别循环卷积神经网络模型是通过以下步骤训练得到的:
采集晶圆ID真实图像,每张晶圆ID真实图像由其对应的晶圆ID标记;
随机生成晶圆ID合成图像,每张晶圆ID合成图像由其对应的晶圆ID标记;
利用晶圆ID合成图像对光学文字识别循环卷积神经网络进行预训练,得到光学文字识别循环卷积神经网络预训练模型;
利用晶圆ID真实图像对光学文字识别循环卷积神经网络预训练模型进行调整,得到光学文字识别循环卷积神经网络模型。
一种基于深度学习的晶圆ID识别装置,包括:
获取单元,用于获取待识别的晶圆ID图像;
识别单元,用于利用光学文字识别循环卷积神经网络模型,从所述待识别的晶圆ID图像中获得晶圆ID,
其中,所述光学文字识别循环卷积神经网络包括Mobilenet bottleneck卷积模块。
根据本发明一优选实施例,所述Mobilenet bottleneck卷积模块采用ReLU激活函数。
根据本发明一优选实施例,所述光学文字识别循环卷积神经网络包括第一卷积层、第一归一化层、第一激活层、第一Mobilenet bottleneck卷积模块、第二Mobilenetbottleneck卷积模块、第三Mobilenet bottleneck卷积模块、第四Mobilenet bottleneck卷积模块、第一长短期记忆层、第二长短期记忆层、全连接层以及Softmax分类层。
根据本发明一优选实施例,所述第一激活层采用Swish激活函数。
根据本发明一优选实施例,所述第一Mobilenet bottleneck卷积模块包括卷积核大小为5×5的可分离卷积,所述第二、第三和第四Mobilenet bottleneck卷积模块分别包括卷积核大小为3×3的可分离卷积。
根据本发明一优选实施例,所述晶圆ID识别装置还包括训练单元,用于通过训练得到所述光学文字识别循环卷积神经网络模型,所述训练单元包括:
采集单元,用于采集晶圆ID真实图像,每张晶圆ID真实图像由其对应的晶圆ID标记;
生成单元,用于随机生成晶圆ID合成图像,每张晶圆ID合成图像由其对应的晶圆ID标记;
预训练单元,用于利用晶圆ID合成图像对光学文字识别循环卷积神经网络进行预训练,得到光学文字识别循环卷积神经网络预训练模型;
调整单元,用于利用晶圆ID真实图像对光学文字识别循环卷积神经网络预训练模型进行调整,得到光学文字识别循环卷积神经网络模型。
一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行以上描述的方法。
由以上技术方案可以看出,本发明的技术方案利用包括Mobilenet bottleneck卷积模块的循环卷积神经网络模型,实现了对任意长度的晶圆ID字符的快速且准确的识别。进一步地,本发明采用随机生成的晶圆ID合成图像对循环卷积神经网络进行训练,解决了真实图像不易获得的问题。
附图说明
参照附图,本发明的公开内容将变得更易理解。本领域技术人员容易理解的是,这些附图仅仅用于举例说明本发明的技术方案,而并非意在对本发明的保护范围构成限定。图中:
图1为根据本发明的实施例的基于深度学习的晶圆ID识别方法的流程图;
图2为根据本发明的实施例的Mobilenet Bottleneck卷积模块的结构图;
图3根据本发明的实施例的光学文字识别循环卷积神经网络的训练过程的流程图;
图4为根据本发明的实施例的基于深度学习的晶圆ID识别装置的结构图;
图5根据本发明的实施例的训练单元的结构图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
图1为根据本发明的实施例的基于深度学习的晶圆ID识别方法的流程图。如图1所示,基于深度学习的晶圆ID识别方法包括以下步骤:
步骤11:获取待识别的晶圆ID图像;
步骤12:利用光学文字识别(OCR)循环卷积神经网络(CRNN)模型,从待识别的晶圆ID图像中获得晶圆ID。
在步骤11中,待识别的晶圆ID图像可以是从工业相机获取的。工业相机可以对焦在晶圆表面的晶圆ID区域上,对晶圆ID图像进行采集。晶圆ID图像的宽度在330到490像素之间,高度在50至70像素之间。由于晶圆ID的字符数一般在9至14之间,以上尺寸的图像与以上长度的晶圆ID匹配。
在步骤12中,将获得的晶圆ID图像输出到光学文字识别循环卷积神经网络模型中,光学文字识别循环卷积神经网络模型可以识别出晶圆ID图像中的晶圆ID,输出字符形式的晶圆ID。
在本实施例中,光学文字识别循环卷积神经网络包括Mobilenet bottleneck卷积模块。具体地,光学文字识别循环卷积神经网络包括第一卷积层、第一归一化层、第一激活层、第一Mobilenet bottleneck卷积模块、第二Mobilenet bottleneck卷积模块、第三Mobilenet bottleneck卷积模块、第四Mobilenet bottleneck卷积模块、第一长短期记忆(lstm)层、第二长短期记忆(lstm)层、全连接层、Softmax分类层。第一个Mobilenetbottleneck卷积模块中可分离卷积采用的卷积核的大小为5×5,其余Mobilenetbottleneck卷积模块中可分离卷积采用的卷积核的大小为3×3。
图2为根据本发明的实施例的Mobilenet Bottleneck卷积模块的结构图。在图2中,BN表示归一化层,ReLU表示激活函数,DWConv5×5表示卷积核为5×5的可分离卷积。本发明采用Mobilenet bottleneck卷积模块代替了循环卷积神经网络中的普通卷积模块。Mobilenet bottleneck卷积模块中的可分离卷积比普通卷积的参数量少,可提高网络的运行速度。另外Mobilenet bottleneck卷积模块中的“+”操作表示逐点相加操作,用于将网络中的特征进行融合。因此,根据本发明的光学文字识别循环卷积神经网可以学习到更加全面的特征,进而有利于提高识别率。
在本实施例中,光学文字识别循环卷积神经网络中的第一激活层采用swish激活函数。swish激活函数的公式如下:
f(x)=x*sigmoid(βx) 公式(1)
Figure BDA0002700919940000051
公式(1)和(2)中的x表示激活层的输入值,β是通过网络训练得到的参数。
在本实施例中,光学文字识别循环卷积神经网络中的Mobilenet bottleneck卷积模块均采用ReLU激活函数。ReLU激活函数的公式如下:
Figure BDA0002700919940000052
公式(3)中的x表示激活函数ReLU的输入值。
根据本发明的实施例,光学文字识别循环卷积神经网络模型是通过对光学文字识别循环卷积神经网络进行训练而得到的。因此,根据本发明的基于深度学习的晶圆ID识别方法还可以包括训练光学文字识别循环卷积神经网络的步骤。
图3是根据本发明的实施例的光学文字识别循环卷积神经网络的训练过程的流程图。如图3所示,光学文字识别循环卷积神经网络的训练过程包括以下步骤:
步骤31:采集晶圆ID真实图像,每张晶圆ID真实图像由其对应的晶圆ID标记;
步骤32:随机生成晶圆ID合成图像,每张晶圆ID合成图像由其对应的晶圆ID标记;
步骤33:利用晶圆ID合成图像对光学文字识别循环卷积神经网络进行预训练,得到光学文字识别循环卷积神经网络预训练模型;
步骤34:利用晶圆ID真实图像对光学文字识别循环卷积神经网络预训练模型进行调整,得到光学文字识别循环卷积神经网络模型。
在步骤31中,可以采用工业相机采集晶圆ID真实图像。由于晶圆ID真实图像用于训练光学文字识别循环卷积神经网络,因此需要采集大量不同的晶圆ID真实图像。优选地,采集的晶圆ID真实图像的数量至少为500张。在本实施例中,采集了560张晶圆ID真实图像。每幅图像的尺寸可以是大小不等的,图像的宽度在330到490像素之间,图像的高度在50到70像素之间。每张图像中的晶圆ID的字符个数例如在9至14之间。每张晶圆ID真实图像由其对应的晶圆ID标记。具体地,可以将采集到的真实图像以晶圆的ID进行命名,每张图像的标签即为图像的名称。
在步骤32中,随机生成晶圆ID合成图像。由于晶圆ID真实图像数量有限,且需要通过相机逐个采集,因此获取大量晶圆ID真实图像的成本较高。根据本发明的实施例,随机生成大量(例如30万张)晶圆ID合成图像。每张合成图像中的晶圆ID的字符个数在9到14之间。合成图像中的晶圆ID字体与真实图像的字体一样,例如均为Semi字体。合成图像的宽度例如在300到500像素之间,图像的高度例如在50到70像素之间。合成图像的背景的灰度值范围例如在0到100之间,字符的灰度值范围例如在100到255之间。可以通过对晶圆ID合成图像进行旋转、添加高斯噪声,并且随机在图像的边缘添加线条的方式进行数据增强。每个合成图像可以采用其对应的晶圆ID进行命名,每张合成图像的标签即为合成图像的名称。
根据本发明优选的实施例,为了适应光学文字识别循环卷积神经网络,可以将所有真实图像和合成图像均采用双线性差值法统一调整到尺寸为128*32(宽度*高度)像素。将合成图像全部作为预训练阶段的训练集。将真实图像的80%用作调整阶段的训练集,20%用作调整阶段的测试集。
在步骤33中,将步骤32中生成的晶圆ID合成图像或者优选地将预训练阶段的训练集输入到光学文字识别循环卷积神经网络中,对网络进行训练。利用光学文字识别循环卷积神经网络提取合成图像中每个像素点的特征,将网络前向传播的结果作为输出。通过求解上述输出与人工标记的标签之间的误差并对误差进行反向传播,来优化整个网络的参数,得到光学文字识别循环卷积神经网络预训练模型。
在步骤34中,将步骤31采集的晶圆ID真实图像或者优选地将调整阶段的训练集输入光学文字识别循环卷积神经网络预训练模型,对预训练模型进行调整,得到光学文字识别循环卷积神经网络模型。
根据本发明的实施例,还可以利用真实图像对步骤34中得到的光学文字识别循环卷积神经网络模型进行验证。具体地,可以将以上描述的验证阶段的测试集输入到光学文字识别循环卷积神经网络模型,得到测试集的识别结果。经过验证,测试集的识别率达99%。
以上是对本发明所提供方法进行的描述,下面结合实施例对本发明提供的装置进行详细描述。
图4为根据本发明的实施例的基于深度学习的晶圆ID识别装置的结构图。如图4所示,基于深度学习的晶圆ID识别装置4包括:
获取单元41,用于获取待识别的晶圆ID图像;
识别单元42:利用光学文字识别循环卷积神经网络模型,从待识别的晶圆ID图像中获得晶圆ID。
获取单元41可以采用工业相机获取待识别的晶圆ID图像。工业相机可以对焦在晶圆表面的晶圆ID区域上,对晶圆ID图像进行采集。晶圆ID图像的宽度在330到490像素之间,高度在50至70像素之间。由于晶圆ID的字符数一般在9至14之间,以上尺寸的图像适合于以上长度的晶圆ID。
识别单元42负责将获得的晶圆ID图像输出到光学文字识别循环卷积神经网络模型中,通过光学文字识别循环卷积神经网络模型识别出晶圆ID图像中的晶圆ID,输出字符形式的晶圆ID。
在本实施例中,光学文字识别循环卷积神经网络包括Mobilenet bottleneck卷积模块。具体地,光学文字识别循环卷积神经网络包括第一卷积层、第一归一化层、第一激活层、第一Mobilenet bottleneck卷积模块、第二Mobilenet bottleneck卷积模块、第三Mobilenet bottleneck卷积模块、第四Mobilenet bottleneck卷积模块、第一长短期记忆(lstm)层、第二长短期记忆(lstm)层、全连接层、Softmax分类层。第一个Mobilenetbottleneck卷积模块中可分离卷积采用的卷积核的大小为5×5,其余Mobilenetbottleneck卷积模块中可分离卷积采用的卷积核的大小为3×3。
图2为根据本发明的实施例的Mobilenet Bottleneck卷积模块的结构图。在图2中,BN表示归一化层,ReLU表示激活函数,DWConv5×5表示卷积核为5×5的可分离卷积。本发明采用Mobilenet bottleneck模块代替了循环卷积神经网络(CRNN)网络中的普通卷积模块。Mobilenet bottleneck模块中的可分离卷积比普通卷积的参数量少,可提高网络的运行速度。另外Mobilenet bottleneck模块中的“+”操作表示逐点相加操作,用于将网络中的特征进行融合。因此,根据本发明的光学文字识别循环卷积神经网可以学习到更加全面的特征,进而有利于提高识别率。
在本实施例中,光学文字识别循环卷积神经网络中的第一激活层采用swish激活函数。swish激活函数的公式如下:
f(x)=x*sigmoid(βx) 公式(4)
Figure BDA0002700919940000081
公式(4)和(5)中的x表示激活层的输入值,β是通过网络训练得到的参数。
在本实施例中,光学文字识别循环卷积神经网络Mobilenet bottleneck模块均采用ReLU激活函数。ReLU激活函数的公式如下:
Figure BDA0002700919940000082
公式(6)中的x表示激活函数ReLU的输入值。
根据本发明的实施例,光学文字识别循环卷积神经网络模型是通过对光学文字识别循环卷积神经网络进行训练而得到的。
根据优选的实施例,根据本发明的晶圆ID识别装置还可以包括训练单元43,用于通过训练得到光学文字识别循环卷积神经网络模型。
图5根据本发明的实施例的训练单元的结构图。如图5所示,训练单元43包括:
采集单元51,用于采集晶圆ID真实图像,每张晶圆ID真实图像由其对应的晶圆ID标记;
生成单元52,用于随机生成晶圆ID合成图像,每张晶圆ID合成图像由其对应的晶圆ID标记;
预训练单元53,用于利用晶圆ID合成图像对光学文字识别循环卷积神经网络进行预训练,得到光学文字识别循环卷积神经网络预训练模型;
调整单元54,用于利用晶圆ID真实图像对光学文字识别循环卷积神经网络预训练模型进行调整,得到光学文字识别循环卷积神经网络模型。
采集单元51可以采用工业相机采集晶圆ID真实图像。由于晶圆ID真实图像用于训练光学文字识别循环卷积神经网络,因此需要采集大量不同的晶圆ID真实图像。优选地,采集的晶圆ID真实图像的数量至少为500张。在本实施例中,采集了560张晶圆ID真实图像。每幅图像的尺寸可以是大小不等的,图像的宽度在330到490像素之间,图像的高度在50到70像素之间。每张图像中的晶圆ID的字符个数例如在9至14之间。每张晶圆ID真实图像由其对应的晶圆ID标记。具体地,可以将采集到的真实图像以晶圆的ID进行命名,每张图像的标签即为图像的名称。
生成单元52负责随机生成晶圆ID合成图像。由于晶圆ID真实图像数量有限,且需要通过相机逐个采集,因此获取大量晶圆ID真实图像的成本较高。根据本发明的实施例,随机生成大量(例如30万张)晶圆ID合成图像。每张合成图像中的晶圆ID的字符个数在9到14之间。合成图像中的晶圆ID字体与真实图像的字体一样,例如均为Semi字体。合成图像的宽度例如在300到500像素之间,图像的高度例如在50到70像素之间。合成图像的背景的灰度值范围例如在0到100之间,字符的灰度值范围例如在100到255之间。可以通过对晶圆ID合成图像进行旋转、添加高斯噪声,并且随机在图像的边缘添加线条的方式进行数据增强。每个合成图像可以采用其对应的晶圆ID进行命名,每张合成图像的标签即为合成图像的名称。
根据本发明优选的实施例,为了适应光学文字识别循环卷积神经网络,可以将所有真实图像和合成图像均采用双线性差值法统一调整到尺寸为128*32(宽度*高度)像素。将合成图像全部作为预训练阶段的训练集。将真实图像的80%用作调整阶段的训练集,20%用作调整阶段的测试集。
预训练单元53负责将生成单元52生成的晶圆ID合成图像或者优选地将预训练阶段的训练集输入到光学文字识别循环卷积神经网络中,对网络进行训练。利用光学文字识别循环卷积神经网络提取合成图像中每个像素点的特征,将网络前向传播的结果作为输出。通过求解上述输出与人工标记的标签之间的误差并对误差进行反向传播,来优化整个网络的参数,得到光学文字识别循环卷积神经网络预训练模型。
调整单元54负责将采集单元51采集的晶圆ID真实图像或者优选地将调整阶段的训练集输入光学文字识别循环卷积神经网络预训练模型,对预训练模型进行调整,得到光学文字识别循环卷积神经网络模型。
根据本发明的实施例,还可以利用真实图像对调整单元54得到的光学文字识别循环卷积神经网络模型进行验证。具体地,可以将以上描述的验证阶段的测试集输入到光学文字识别循环卷积神经网络模型,得到测试集的识别结果。经过验证,测试集的识别率达99%。
以上描述的装置实施例仅是示意性的。各单元的划分可以是基于逻辑功能的划分,在实际实现时可以采用其他的划分方式。例如多个单元可以结合或者可以集成到另一个单元或系统中。上述各个单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述各个单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本发明的技术方案可以采用软件产品的形式体现,该计算机软件产品存储在一个存储介质中,包括若干指令用以使计算机设备的处理器执行本发明各个实施例的方法的全部或部分步骤。存储介质包括但不限于闪存盘、只读存储器(ROM)、随机存取存储器(RAM)、移动硬盘、磁盘或者光盘等可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (13)

1.一种基于深度学习的晶圆ID识别方法,包括:
获取待识别的晶圆ID图像;
利用光学文字识别循环卷积神经网络模型,从所述待识别的晶圆ID图像中获得晶圆ID,其中,所述光学文字识别循环卷积神经网络包括Mobilenet bottleneck卷积模块。
2.根据权利要求1所述的晶圆ID识别方法,其特征在于,所述Mobilenet bottleneck卷积模块采用ReLU激活函数。
3.根据权利要求2所述的晶圆ID识别方法,其特征在于,所述光学文字识别循环卷积神经网络包括第一卷积层、第一归一化层、第一激活层、第一Mobilenet bottleneck卷积模块、第二Mobilenet bottleneck卷积模块、第三Mobilenet bottleneck卷积模块、第四Mobilenet bottleneck卷积模块、第一长短期记忆层、第二长短期记忆层、全连接层以及Softmax分类层。
4.根据权利要求3所述的晶圆ID识别方法,其特征在于,所述第一激活层采用Swish激活函数。
5.根据权利要求4所述的晶圆ID识别方法,其特征在于,所述第一Mobilenetbottleneck卷积模块包括卷积核大小为5×5的可分离卷积,所述第二、第三和第四Mobilenet bottleneck卷积模块分别包括卷积核大小为3×3的可分离卷积。
6.根据权利要求1至5中任一项所述的晶圆ID识别方法,其特征在于,所述光学文字识别循环卷积神经网络模型是通过以下步骤训练得到的:
采集晶圆ID真实图像,每张晶圆ID真实图像由其对应的晶圆ID标记;
随机生成晶圆ID合成图像,每张晶圆ID合成图像由其对应的晶圆ID标记;
利用晶圆ID合成图像对光学文字识别循环卷积神经网络进行预训练,得到光学文字识别循环卷积神经网络预训练模型;
利用晶圆ID真实图像对光学文字识别循环卷积神经网络预训练模型进行调整,得到光学文字识别循环卷积神经网络模型。
7.一种基于深度学习的晶圆ID识别装置,包括:
获取单元,用于获取待识别的晶圆ID图像;
识别单元,用于利用光学文字识别循环卷积神经网络模型,从所述待识别的晶圆ID图像中获得晶圆ID,其中,所述光学文字识别循环卷积神经网络包括Mobilenet bottleneck卷积模块。
8.根据权利要求7所述的晶圆ID识别装置,其特征在于,所述Mobilenet bottleneck卷积模块采用ReLU激活函数。
9.根据权利要求8所述的晶圆ID识别装置,其特征在于,所述光学文字识别循环卷积神经网络包括第一卷积层、第一归一化层、第一激活层、第一Mobilenet bottleneck卷积模块、第二Mobilenet bottleneck卷积模块、第三Mobilenet bottleneck卷积模块、第四Mobilenet bottleneck卷积模块、第一长短期记忆层、第二长短期记忆层、全连接层以及Softmax分类层。
10.根据权利要求9所述的晶圆ID识别装置,其特征在于,所述第一激活层采用Swish激活函数。
11.根据权利要求10所述的晶圆ID识别装置,其特征在于,所述第一Mobilenetbottleneck卷积模块包括卷积核大小为5×5的可分离卷积,所述第二、第三和第四Mobilenet bottleneck卷积模块分别包括卷积核大小为3×3的可分离卷积。
12.根据权利要求7至11中任一项所述的晶圆ID识别装置,其特征在于,所述晶圆ID识别装置还包括训练单元,用于通过训练得到所述光学文字识别循环卷积神经网络模型,所述训练单元包括:
采集单元,用于采集晶圆ID真实图像,每张晶圆ID真实图像由其对应的晶圆ID标记;
生成单元,用于随机生成晶圆ID合成图像,每张晶圆ID合成图像由其对应的晶圆ID标记;
预训练单元,用于利用晶圆ID合成图像对光学文字识别循环卷积神经网络进行预训练,得到光学文字识别循环卷积神经网络预训练模型;
调整单元,用于利用晶圆ID真实图像对光学文字识别循环卷积神经网络预训练模型进行调整,得到光学文字识别循环卷积神经网络模型。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行权利要求1至6中任一项所述的方法。
CN202011021877.0A 2020-09-25 2020-09-25 基于深度学习的晶圆id识别方法和装置 Pending CN112200182A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011021877.0A CN112200182A (zh) 2020-09-25 2020-09-25 基于深度学习的晶圆id识别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011021877.0A CN112200182A (zh) 2020-09-25 2020-09-25 基于深度学习的晶圆id识别方法和装置

Publications (1)

Publication Number Publication Date
CN112200182A true CN112200182A (zh) 2021-01-08

Family

ID=74007274

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011021877.0A Pending CN112200182A (zh) 2020-09-25 2020-09-25 基于深度学习的晶圆id识别方法和装置

Country Status (1)

Country Link
CN (1) CN112200182A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116740728A (zh) * 2023-08-11 2023-09-12 泓浒(苏州)半导体科技有限公司 一种用于晶圆读码器动态获取方法和系统
CN117057371A (zh) * 2023-08-26 2023-11-14 泓浒(苏州)半导体科技有限公司 一种基于ai识别算法的自适应晶圆读码方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766050A (zh) * 2019-09-19 2020-02-07 北京捷通华声科技股份有限公司 模型生成方法、文本识别方法、装置、设备及存储介质
CN111444908A (zh) * 2020-03-25 2020-07-24 腾讯科技(深圳)有限公司 图像识别方法、装置、终端和存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766050A (zh) * 2019-09-19 2020-02-07 北京捷通华声科技股份有限公司 模型生成方法、文本识别方法、装置、设备及存储介质
CN111444908A (zh) * 2020-03-25 2020-07-24 腾讯科技(深圳)有限公司 图像识别方法、装置、终端和存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116740728A (zh) * 2023-08-11 2023-09-12 泓浒(苏州)半导体科技有限公司 一种用于晶圆读码器动态获取方法和系统
CN116740728B (zh) * 2023-08-11 2023-10-27 泓浒(苏州)半导体科技有限公司 一种用于晶圆读码器动态获取方法和系统
CN117057371A (zh) * 2023-08-26 2023-11-14 泓浒(苏州)半导体科技有限公司 一种基于ai识别算法的自适应晶圆读码方法
CN117057371B (zh) * 2023-08-26 2024-02-20 泓浒(苏州)半导体科技有限公司 一种基于ai识别算法的自适应晶圆读码方法

Similar Documents

Publication Publication Date Title
CN111160352B (zh) 一种基于图像分割的工件金属表面文字识别方法及系统
CN107194418B (zh) 一种基于对抗特征学习的水稻蚜虫检测方法
CN110765907A (zh) 一种基于深度学习的视频中试卷纸质文档信息提取系统及方法
CN111291840A (zh) 一种学生课堂行为识别系统、方法、介质及终端设备
CN104008401A (zh) 一种图像文字识别的方法及装置
Park et al. MarsNet: multi-label classification network for images of various sizes
CN112381175A (zh) 一种基于图像处理的电路板识别与分析方法
CN113963147B (zh) 一种基于语义分割的关键信息提取方法及系统
CN111539330B (zh) 一种基于双svm多分类器的变电站数显仪表识别方法
CN110598566A (zh) 图像处理方法、装置、终端和计算机可读存储介质
CN113506239B (zh) 一种基于跨阶段局部网络的带钢表面缺陷检测方法
CN112200182A (zh) 基于深度学习的晶圆id识别方法和装置
CN110619326A (zh) 一种基于扫描的英语试卷作文检测识别系统及方法
CN114626476A (zh) 基于Transformer与部件特征融合的鸟类细粒度图像识别方法及装置
CN113158895A (zh) 票据识别方法、装置、电子设备及存储介质
CN115761366A (zh) 补充缺失特征的零样本图片分类方法、系统、设备及介质
CN113095187A (zh) 一种基于图像特征匹配对齐的试卷批改方法
CN111783541A (zh) 一种文本识别方法和装置
CN110728269A (zh) 一种高铁接触网支柱杆号牌识别方法
CN116704526B (zh) 工尺谱扫描机器人及其方法
Ilin et al. Creating training datasets for ocr in mobile device video stream.
CN114529906A (zh) 基于字符识别的输电设备数字仪表异常检测方法及系统
CN114373178A (zh) 一种图片文字检测与识别方法及系统
CN113657162A (zh) 一种基于深度学习的票据ocr识别方法
CN112115949B (zh) 一种烟草证件以及订单的光学文字识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210108