CN114693917A - 一种应用于招牌照识别的数据增强方法 - Google Patents
一种应用于招牌照识别的数据增强方法 Download PDFInfo
- Publication number
- CN114693917A CN114693917A CN202210322894.0A CN202210322894A CN114693917A CN 114693917 A CN114693917 A CN 114693917A CN 202210322894 A CN202210322894 A CN 202210322894A CN 114693917 A CN114693917 A CN 114693917A
- Authority
- CN
- China
- Prior art keywords
- signboard
- image
- area
- character
- method applied
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种应用于招牌照识别的数据增强方法,所述方法包括:步骤S1、对用户上传的图像进行招牌图像识别,过滤掉非招牌图像;步骤S2、构建由招牌照和随机掩码组成的训练样本进行U‑net网络模型训练,获得修复模型;步骤S3、采用图像二值化法来识别招牌图像中的光斑,并对光斑进行修复;步骤S4、识别招牌图像P中的招牌区域P1以及所述招牌区域P1中的文字区域;步骤S5、确定有效文字区域;步骤S6、分割招牌区域P1中的文字前景样式,从字典中取出随机字体的文字形成图像Font,将所述图像Font替换有效文字区域内的文字;步骤S7、与招牌区域P1进行融合,并替换将招牌图像中的原始招牌区域。本申请解决了模型训练中的样本量不足等问题。
Description
技术领域
本申请属于数据处理技术领域,特别涉及一种应用于招牌照识别的数据增强方法。
背景技术
随着人工智能算法在图像识别领域的不断普及。现有的人工智能技术,如深度神经网络等算法,算法模型的训练需要大量的样本。由于招牌照的特殊性,所有的图片样本都需要用户自己拍摄得到,而网络获得的数据质量也参差不齐,因此样本数量通常会有所不足。样本数量的不足会对招牌识别准确性造成挑战。
同时,招牌是依据用户的喜好设计而成,所以不同的招牌照片涉及到不同的字体、不同的排版方式和不同的设计样式,这些数据的多样性也会造成该样式下的样本数量不足。
现有的数据增强技术包括倾斜、放缩、翻转等虽然增加了数据的样本量,但是却影响了最终图像识别的效果;融合文本数据合成可以解决文本识别阶段数据不足的问题,却不能解决文本检测阶段数据不足的问题。
发明内容
为了解决上述技术问题至少之一,本申请提供了一种应用于招牌照识别的数据增强方法,主要包括:
步骤S1、对用户上传的图像进行招牌图像识别,过滤掉非招牌图像,对含有招牌的图像数据记录下招牌所在的区域坐标A;
步骤S2、构建由招牌照和随机掩码组成的训练样本进行U-net网络模型训练,获得修复模型;
步骤S3、采用图像二值化法来识别招牌图像中的光斑,计算二值化后招牌图像中的白色区域连通分量在招牌内区域的面积,当该面积大于900时,将该区域记录为掩码,从而对所述光斑采用步骤S2的修复模型进行修复;
步骤S4、识别招牌图像P中的招牌区域P1以及所述招牌区域P1中的文字区域;
步骤S5、确定有效文字区域;
步骤S6、分割招牌区域P1中的文字前景样式,从字典中取出随机字体的文字形成图像Font,将所述图像Font替换有效文字区域内的文字,形成图像Fake,所述前景样式包括字体、颜色及几何变形;
步骤S7、将所述图像Fake与所述招牌区域P1进行融合,形成图像Fake_P1,将招牌图像P中的原始招牌区域P1替换为Fake_P1。
优选的是,步骤S1进一步包括:
按照7:2:1的数据比例划分将已标注的数据集分为训练集、测试集和验证集;
经过训练得到针对招牌照的目标检测器;
使用目标检测器对数据进行目标检测,过滤掉非招牌图像数据。
优选的是,步骤S2中,随机掩码的面积设置为不超过招牌图像面积的30%。
优选的是,步骤S2中,所述U-net网络模型包括编码模块和解码模块,所述编码模块用于对图像各个层次的特征进行提取,所述解码模块用于对各个层次的图像特征进行整合,所述编码模块包括3*3的卷积核和2*2的最大池化组成,使用ReLU函数作为激活函数,在不断地编码中得到图像在低分辨下的高维度特征图,所述解码模块使用3*3的卷积核和2*2的上采样层作进行运算。
优选的是,所述U-net网络模型的损失函数为MSE损失函数与感知指标之和。
优选的是,步骤S3中,采用图像二值化法来识别招牌照中的光斑之前,进一步包括将所述招牌图像转化为灰度图像,以及采用高斯滤波器去除图像中的噪声。
优选的是,步骤S3中,采用图像二值化法来识别招牌照中的光斑包括:
使用全局阈值法来二值化图像,对于阈值高于240的位置识别为光斑,将阈值大于240的位置设置为白色,其余设置为黑色。
优选的是,步骤S5中,确定有效文字区域包括:
对所述文字区域进行四边形判断,如果所述文字区域不是四边形区域,则判定为无效区域;
对区域为四边形的文字区域进行倾斜检测,对四边形的文字区域的四个顶点按纵坐标排序,如果纵坐标相等则按照横坐标进行二次排序;排序后,分别计算前两个点的倾角和后两个点的倾角,如果两个倾角有一个大于15°,或者两个倾角的差大于15°,则判定该区域为倾斜区域;
对文字区域高度小于招牌区域P1的招牌高度的十分之一,则视为不重要区域;
过滤掉所述无效区域、倾斜区域和不重要区域,其它文字区域确定为有效文字区域。
优选的是,步骤S6中,分割招牌区域P1中的文字前景样式包括:
使用全卷积神经网络识别出招牌区域P1中的文字前景样式,输出招牌图像每个字的分割区域,分割出的区域与步骤S5中的有效文字区域进行交集运算,从而判断分割的文字是否在步骤S5得到的有效文字区域中。
优选的是,步骤S7中,将所述图像Fake与所述招牌区域P1进行融合时包括:在像素区间[10,30]内随机减小Fake图像的尺寸,并用空白填充。
本申请通过对招牌图像数据的总结和分析,针对其特点使用一种新的数据增强方式生成新的图片,用来解决模型训练中的样本量不足等问题。
附图说明
图1是本申请应用于招牌照识别的数据增强方法的一优选实施例的流程图。
具体实施方式
为使本申请实施的目的、技术方案和优点更加清楚,下面将结合本申请实施方式中的附图,对本申请实施方式中的技术方案进行更加详细的描述。在附图中,自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。所描述的实施方式是本申请一部分实施方式,而不是全部的实施方式。下面通过参考附图描述的实施方式是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。基于本申请中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本申请保护的范围。下面结合附图对本申请的实施方式进行详细说明。
本申请提供了一种应用于招牌照识别的数据增强方法,如图1所示,主要包括:
步骤S1、对用户上传的图像进行招牌图像识别,过滤掉非招牌图像,对含有招牌的图像数据记录下招牌所在的区域坐标A;
步骤S2、构建由招牌照和随机掩码组成的训练样本进行U-net网络模型训练,获得修复模型;
步骤S3、采用图像二值化法来识别招牌图像中的光斑,计算二值化后招牌图像中的白色区域连通分量在招牌内区域的面积,当该面积大于900时,将该区域记录为掩码,从而对所述光斑采用步骤S2的修复模型进行修复;
步骤S4、识别招牌图像P中的招牌区域P1以及所述招牌区域P1中的文字区域;
步骤S5、确定有效文字区域;
步骤S6、分割招牌区域P1中的文字前景样式,从字典中取出随机字体的文字形成图像Font,将所述图像Font替换有效文字区域内的文字,形成图像Fake,所述前景样式包括字体、颜色及几何变形;
步骤S7、将所述图像Fake与所述招牌区域P1进行融合,形成图像Fake_P1,将招牌图像P中的原始招牌区域P1替换为Fake_P1。
本申请招牌照数据增强方法主要原理为随机生成一个虚假的招牌名;对所述的文字区域背景进行抽取处理,提取出招牌图像的背景;之后对所述的虚假的招牌名进行风格迁移;最后将风格迁移后的虚假的招牌名和招牌图像进行融合,生成新的图片。
在一些可选实施方式中,步骤S1进一步包括:按照7:2:1的数据比例划分将已标注的数据集分为训练集、测试集和验证集;经过训练得到针对招牌照的目标检测器;使用目标检测器对数据进行目标检测,过滤掉非招牌图像数据。
该实施例中,对图像中的招牌数据进行检测过滤。检测过滤的主要目标是过滤掉不是招牌照的图像,在实际应用中,由于上传的图像不会经过前台校核,因此有一些非招牌图像会被上传,因此在数据增强前,需要对数据进行过滤。此处使用基于Yolo V3的算法对待检测数据进行目标检测处理。训练时,收集一部分已有的招牌数据进行标注。按照7:2:1的数据比例划分将已标注的数据集为训练集、测试集和验证集。经过训练得到针对招牌照的目标检测器。使用检测器对数据进行目标检测,过滤掉不是招牌照的数据。含有招牌的图像数据记录下招牌的区域坐标A。
在一些可选实施方式中,步骤S2中,随机掩码的面积设置为不超过招牌图像面积的30%。
该实施例中,图像修复模型对于图像中的光斑去除和后期图像融合起着重要的作用。使用改进的U-net网络模型训练,训练样本主要由招牌照和随机的掩码组成。其中掩码的面积不超过牌照面积的30%。
在一些可选实施方式中,步骤S2中,所述U-net网络模型包括编码模块和解码模块,所述编码模块用于对图像各个层次的特征进行提取,所述解码模块用于对各个层次的图像特征进行整合,所述编码模块包括3*3的卷积核和2*2的最大池化组成,使用ReLU函数作为激活函数,在不断地编码中得到图像在低分辨下的高维度特征图,所述解码模块使用3*3的卷积核和2*2的上采样层作进行运算。
该实施例中,U-Net的结构主要分为两部分:编码模块和解码模块。编码模块负责对图像各个层次的特征进行提取,解码模块对各个层次的图像特征进行整合处理,通过增加跃式连接的方式将编码模块的每一层特征与解码模块中相应层的特征连接起来,保证不丢失信息。在编码模块中,基本单元是3*3的卷积核和2*2的最大池化组成,使用ReLU函数作为激活函数,在不断地编码中得到图像在低分辨下的高维度特征图。在解码模块中,同样使用3*3的卷积核和2*2的上采样层作为基本的单元进行运算。
在一些可选实施方式中,所述U-net网络模型的损失函数为MSE损失函数与感知指标之和。
该实施例中,损失函数考虑了原始图像和生成图像的差别,取MSE损失函数记为L1,同时使用感知相关指标SSIM Loss,使用两者的和作为最终的损失函数。经过多轮训练后得到最终的修复模型。
在一些可选实施方式中,步骤S3中,采用图像二值化法来识别招牌照中的光斑之前,进一步包括将所述招牌图像转化为灰度图像,以及采用高斯滤波器去除图像中的噪声。
在一些可选实施方式中,步骤S3中,采用图像二值化法来识别招牌照中的光斑包括:使用全局阈值法来二值化图像,对于阈值高于240的位置识别为光斑,将阈值大于240的位置设置为白色,其余设置为黑色。
需要说明的是,对于招牌图像,还需要处理光斑问题,光斑通常是由于用户手机的反光灯或者阳光的反射造成的。首先,检测光斑存在的位置,可以使用图像二值化来识别光斑的位置。在图像二值化之前,还要将图像转化为灰度图像,并且避免噪声的影响,使用高斯滤波器来去除图像中的噪声,滤波器大小为(5x5)。使用全局阈值法来二值化图像,为了避免将招牌中的白色字体识别为光斑,经试验,阈值高于240的位置普遍是光斑存在的位置。对此,阈值大于240处设置为白色,其余设置为黑色。
图像二值化后,可能会存在一些小的噪声,对此使用连通分量分析,计算二值化后图像中的白色区域连通分量在招牌内区域的面积,当面积大于900时,将该区域记录为掩码。之后即可以替换光斑位置的图像,使用步骤S2的图像修复模型对光斑处进行修复,得到去除光斑的图像。
在一些可选实施方式中,步骤S5中,确定有效文字区域包括:对所述文字区域进行四边形判断,如果所述文字区域不是四边形区域,则判定为无效区域;对区域为四边形的文字区域进行倾斜检测,对四边形的文字区域的四个顶点按纵坐标排序,如果纵坐标相等则按照横坐标进行二次排序;排序后,分别计算前两个点的倾角和后两个点的倾角,如果两个倾角有一个大于15°,或者两个倾角的差大于15°,则判定该区域为倾斜区域;对文字区域高度小于招牌区域P1的招牌高度的十分之一,则视为不重要区域;过滤掉所述无效区域、倾斜区域和不重要区域,其它文字区域确定为有效文字区域。
该实施例中,对四边形区域进行倾斜检测,设四边形区域的四个顶点坐标是(x1,y1)、(x2,y2)、(x3,y3)和(x4,y4)。对四个顶点先按y值排序,如果相等按照x值二次排序。排序后,其中分别计算前两个点的倾角和后两个点的倾角。计算公式如下:
在一些可选实施方式中,步骤S6中,分割招牌区域P1中的文字前景样式包括:
使用全卷积神经网络识别出招牌区域P1中的文字前景样式,输出招牌图像每个字的分割区域,分割出的区域与步骤S5中的有效文字区域进行交集运算,从而判断分割的文字是否在步骤S5得到的有效文字区域中。
得到图像的前景样式后,对招牌区域P1中有效的文字区域图像进行识别,随机从字典中取出文字,字体随机取自宋体、楷体、黑体等,生成图像Font,也即随机生成一个虚假的招牌名。使用生成对抗网络Star-GAN模型进行字体风格迁移,输入为P1的有效区域文字和随机字体图像Font,输出的图像记为Fake。
在一些可选实施方式中,步骤S7中,将所述图像Fake与所述招牌区域P1进行融合时包括:在像素区间[10,30]内随机减小Fake图像的尺寸,并用空白填充。
需要说明的是,在融合的时候考虑到Fake图像和P1的区域存在部分色差等问题,在像素区间[10,30]内随机减小Fake图像的尺寸,用空白填充。融合时,保证Fake图像的几何中心点和招牌区域P1文字分割区域的图像的中心点要重合。依次对招牌区域P1中所有生成的Fake图像进行融合处理,最后使用步骤S2得到的图像修复模型对招牌区域P1进行图像修复得到新的图像Fake_P1,将P中的招牌区域P1的图像替换为Fake_P1。
本申请通过对招牌图像数据的总结和分析,针对其特点使用一种新的数据增强方式生成新的图片,用来解决模型训练中的样本量不足等问题。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种应用于招牌照识别的数据增强方法,其特征在于,包括:
步骤S1、对用户上传的图像进行招牌图像识别,过滤掉非招牌图像,对含有招牌的图像数据记录下招牌所在的区域坐标A;
步骤S2、构建由招牌照和随机掩码组成的训练样本进行U-net网络模型训练,获得修复模型;
步骤S3、采用图像二值化法来识别招牌图像中的光斑,计算二值化后招牌图像中的白色区域连通分量在招牌内区域的面积,当该面积大于900时,将该区域记录为掩码,从而对所述光斑采用步骤S2的修复模型进行修复;
步骤S4、识别招牌图像P中的招牌区域P1以及所述招牌区域P1中的文字区域;
步骤S5、确定有效文字区域;
步骤S6、分割招牌区域P1中的文字前景样式,从字典中取出随机字体的文字形成图像Font,将所述图像Font替换有效文字区域内的文字,形成图像Fake,所述前景样式包括字体、颜色及几何变形;
步骤S7、将所述图像Fake与所述招牌区域P1进行融合,形成图像Fake_P1,将招牌图像P中的原始招牌区域P1替换为Fake_P1。
2.如权利要求1所述的应用于招牌照识别的数据增强方法,其特征在于,步骤S1进一步包括:
按照7:2:1的数据比例划分将已标注的数据集分为训练集、测试集和验证集;
经过训练得到针对招牌照的目标检测器;
使用目标检测器对数据进行目标检测,过滤掉非招牌图像数据。
3.如权利要求1所述的应用于招牌照识别的数据增强方法,其特征在于,步骤S2中,随机掩码的面积设置为不超过招牌图像面积的30%。
4.如权利要求1所述的应用于招牌照识别的数据增强方法,其特征在于,步骤S2中,所述U-net网络模型包括编码模块和解码模块,所述编码模块用于对图像各个层次的特征进行提取,所述解码模块用于对各个层次的图像特征进行整合,所述编码模块包括3*3的卷积核和2*2的最大池化组成,使用ReLU函数作为激活函数,在不断地编码中得到图像在低分辨下的高维度特征图,所述解码模块使用3*3的卷积核和2*2的上采样层作进行运算。
5.如权利要求4所述的应用于招牌照识别的数据增强方法,其特征在于,所述U-net网络模型的损失函数为MSE损失函数与感知指标之和。
6.如权利要求1所述的应用于招牌照识别的数据增强方法,其特征在于,步骤S3中,采用图像二值化法来识别招牌照中的光斑之前,进一步包括将所述招牌图像转化为灰度图像,以及采用高斯滤波器去除图像中的噪声。
7.如权利要求1所述的应用于招牌照识别的数据增强方法,其特征在于,步骤S3中,采用图像二值化法来识别招牌照中的光斑包括:
使用全局阈值法来二值化图像,对于阈值高于240的位置识别为光斑,将阈值大于240的位置设置为白色,其余设置为黑色。
8.如权利要求1所述的应用于招牌照识别的数据增强方法,其特征在于,步骤S5中,确定有效文字区域包括:
对所述文字区域进行四边形判断,如果所述文字区域不是四边形区域,则判定为无效区域;
对区域为四边形的文字区域进行倾斜检测,对四边形的文字区域的四个顶点按纵坐标排序,如果纵坐标相等则按照横坐标进行二次排序;排序后,分别计算前两个点的倾角和后两个点的倾角,如果两个倾角有一个大于15°,或者两个倾角的差大于15°,则判定该区域为倾斜区域;
对文字区域高度小于招牌区域P1的招牌高度的十分之一,则视为不重要区域;
过滤掉所述无效区域、倾斜区域和不重要区域,其它文字区域确定为有效文字区域。
9.如权利要求1所述的应用于招牌照识别的数据增强方法,其特征在于,步骤S6中,分割招牌区域P1中的文字前景样式包括:
使用全卷积神经网络识别出招牌区域P1中的文字前景样式,输出招牌图像每个字的分割区域,分割出的区域与步骤S5中的有效文字区域进行交集运算,从而判断分割的文字是否在步骤S5得到的有效文字区域中。
10.如权利要求1所述的应用于招牌照识别的数据增强方法,其特征在于,步骤S7中,将所述图像Fake与所述招牌区域P1进行融合时包括:在像素区间[10,30]内随机减小Fake图像的尺寸,并用空白填充。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210322894.0A CN114693917A (zh) | 2022-03-29 | 2022-03-29 | 一种应用于招牌照识别的数据增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210322894.0A CN114693917A (zh) | 2022-03-29 | 2022-03-29 | 一种应用于招牌照识别的数据增强方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114693917A true CN114693917A (zh) | 2022-07-01 |
Family
ID=82141589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210322894.0A Pending CN114693917A (zh) | 2022-03-29 | 2022-03-29 | 一种应用于招牌照识别的数据增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114693917A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115082758A (zh) * | 2022-08-19 | 2022-09-20 | 深圳比特微电子科技有限公司 | 目标检测模型的训练方法、目标检测方法、装置和介质 |
CN115620307A (zh) * | 2022-12-02 | 2023-01-17 | 杭州实在智能科技有限公司 | 用于扩充ocr训练集的随机字体样式生成方法及系统 |
-
2022
- 2022-03-29 CN CN202210322894.0A patent/CN114693917A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115082758A (zh) * | 2022-08-19 | 2022-09-20 | 深圳比特微电子科技有限公司 | 目标检测模型的训练方法、目标检测方法、装置和介质 |
CN115620307A (zh) * | 2022-12-02 | 2023-01-17 | 杭州实在智能科技有限公司 | 用于扩充ocr训练集的随机字体样式生成方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106960208B (zh) | 一种仪表液晶数字自动切分和识别的方法及系统 | |
CN112686812B (zh) | 银行卡倾斜矫正检测方法、装置、可读存储介质和终端 | |
Gazcón et al. | Automatic vehicle identification for Argentinean license plates using intelligent template matching | |
CN114693917A (zh) | 一种应用于招牌照识别的数据增强方法 | |
JP5229050B2 (ja) | 画像からの文書領域抽出装置、方法、及びプログラム | |
CN111626249B (zh) | 题目图像中几何图形的识别方法、装置和计算机存储介质 | |
CN111259878A (zh) | 一种检测文本的方法和设备 | |
CN114038004A (zh) | 一种证件信息提取方法、装置、设备及存储介质 | |
CN115063802A (zh) | 一种基于PSENet的圆形印章识别方法、设备及介质 | |
CN112101108B (zh) | 一种基于图形极点位置特征的左右转交通标志识别方法 | |
CN112241730A (zh) | 一种基于机器学习的表格提取方法和系统 | |
CN112364834A (zh) | 一种基于深度学习和图像处理的表格识别的还原方法 | |
JPH07220090A (ja) | 物体認識方法 | |
CN114359538A (zh) | 一种水表读数定位与识别方法 | |
CN112686265A (zh) | 一种基于层级轮廓提取的象形文字分割方法 | |
CN112419207A (zh) | 一种图像矫正方法及装置、系统 | |
CN111626145A (zh) | 一种简捷有效的残缺表格识别及跨页拼接方法 | |
CN109508716B (zh) | 一种图像文字的定位方法及装置 | |
CN113435219B (zh) | 防伪检测方法、装置、电子设备及存储介质 | |
CN114724154A (zh) | 表格识别方法及装置、存储介质及电子设备 | |
CN110766001B (zh) | 基于cnn和rnn的银行卡卡号定位与端到端识别方法 | |
Siddique et al. | Development of an automatic vehicle license plate detection and recognition system for Bangladesh | |
CN115953744A (zh) | 一种基于深度学习的车辆识别追踪方法 | |
JP2010191767A (ja) | 文字認識装置及び文字認識方法 | |
JP4492258B2 (ja) | 文字・図形の認識方法および検査方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |