CN112200184B - 一种自然场景下的书法区域检测及作者识别方法 - Google Patents
一种自然场景下的书法区域检测及作者识别方法 Download PDFInfo
- Publication number
- CN112200184B CN112200184B CN202011076021.3A CN202011076021A CN112200184B CN 112200184 B CN112200184 B CN 112200184B CN 202011076021 A CN202011076021 A CN 202011076021A CN 112200184 B CN112200184 B CN 112200184B
- Authority
- CN
- China
- Prior art keywords
- calligraphy
- area
- author
- picture
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种自然场景下的书法区域检测及作者识别方法,包括以下步骤:步骤S1:采集书法图片,构建书法区域检测与作者信息数据集;步骤S2:对书法区域检测与作者信息数据集进行预处理;步骤S3:基于CornerNet网络结构,构建书法区域检测及作者识别网络,并根据预处理后的数据集进行训练;步骤S4:将待识别的图片送入训练好的书法区域检测及作者识别网络,获取图片中包含书法作品的区域并识别书法作者。本发明能够高效便捷的检测自然场景下的图片包含的书法区域及作者信息。
Description
技术领域
本发明涉及模式识别与计算机视觉领域,具体涉及一种自然场景下的书法区域检测及作者识别方法。
背景技术
而书法是一门复杂的学问,其涉及文学、历史、美术等多个学科,是一门综合性很强的边缘学科。名家名人的书法作品具有广泛的应用,尤其在设计行业,其可用于服装、杯子、壁纸等生活中常见的物品印花,也可用于电视节目、海报等场景下作为字体、背景使用。
对于普通人来说,在生活中看到了感兴趣的书法作品,想要了解它的详细信息是非常困难的,往往需要向专业人士咨询,对普通人来说需要耗费较多的精力。而通过计算机视觉和深度学习技术,可以利用计算机轻松海量书法作品作者信息,使得普通人也可以利用该方法轻松的获取自然场景下书法作品的作者信息。而获得了作者信息之后,想要了解书法作品详情则简单的多。
发明内容
有鉴于此,本发明的目的在于提供一种自然场景下的书法区域检测及作者识别方法,能够高效便捷的检测自然场景下的图片包含的书法区域及作者信息。
为实现上述目的,本发明采用如下技术方案:
一种自然场景下的书法区域检测及作者识别方法,包括以下步骤:
步骤S1:采集书法图片,构建书法区域检测与作者信息数据集;
步骤S2:对书法区域检测与作者信息数据集进行预处理;
步骤S3:基于CornerNet网络结构,构建书法区域检测及作者识别网络,并根据预处理后的数据集进行训练;
步骤S4:将待识别的图片送入训练好的书法区域检测及作者识别网络,获取图片中包含书法作品的区域并识别书法作者。
进一步的,所述步骤S1具体为:
步骤S11::收集并整理ta张自然场景下包含书法作品的图片IMG={imgia|ia=1,2,...,ta},其中imgia表示第ia张图片;
步骤S12:对每一张图片进行标注,每张图片包含0个、1个或1个以上的标注,每个标注包含一个区域r={rltx,rlty,rwidth,rheight}和一个作者信息w,rltx为区域左上角的x坐标,rlty为区域左上角的y坐标,rwidth为区域宽度,rheight为区域高度;
步骤S13:将每一张图片的任意第ic个区域ric和对应的第ic个作者信息wic组合,获得第ic个标注first_annoic={ric,wic},最终对于任意imgia可以获得一个第ia张图片的标注集合first_annosia={first_annoic|ic=0,1,...,tbia},其中tbia为第ia张图片的标注总数;
步骤S14:将所有图片中的所有标注中的作者信息整理为集合W={wid|id=1,2,...,tw},其中tw为作者总数,建立作者信息索引满映射fw:WID→W,其中WID={1,2,...,tw};
步骤S15:根据映射fw,用WID中的元素将任意first_annosia的所有子集中的wic替换为widic,替换后得到新集合annosia;
步骤S16:将imgia和annosia组合,获得第ia个样本cia={imgia,annosia},作者信息映射关系fw和所有样本组合得到书法区域检测与作者信息数据集C={fw,{cia|ia=1,2,...,ta}}。
进一步的,所述步骤S2具体为:对于每一个样本cia={imgia,annosia},随机进行实行裁剪、旋转和缩放变换,每个样本可以生成若干个子样本,获得包含作者信息映射关系fw和tc个样本的增强数据集C′={fw,{c′if|if=1,2,...,tc}},
其中c′if={img′if,annos′if}为增强数据集中的第if个样本,img′if为第if个增强样本的图片,annos′if为第if个增强样本的标注集。
进一步的,所述书法区域检测及作者识别网络CornerNet的结构为基础结构并对其进行修改,具体如下:
将图片送入一个用于特征提取的Hourglass-104模块获得深度特征;
将特征图送入角点池化层获得角点特征图,再将角点特征图分别送入三个子网络,三个子网络分别用于预测角点对应的物体类别、匹配角点和预测角点在特征图位置与原图位置的偏移量;
将其网络用于提取特征的Hourglass-104替换为基于ResNet-50的FPN;
其中,FPN的上采样方法为双线性插值加卷积。
进一步的,步骤S4具体为:
步骤S41:将一张或多张待检测与识别的td张图片inputimgs送入训练好的书法区域检测及作者识别网络DetNet,获得预测结果output;
步骤S42:对每一张输入图片的预测结果进行后处理,当处理第ig张图片时,对于第ih个预测结果predrwih,若predchanceih<thresholdA,将其从predig集合中删除,其中thresholdA为阈值参数,ih=1,2,...,teig全被执行后,进入下步;
步骤S43:对于两块区域C、D的IoU计算方式如下:
其中area(X)是计算区域X面积的函数,于是对于第ig张输入图片的任意两个预测结果predrwa∈predig,predrwb∈predig且predrwa≠predrwb,其中predrwa={predregiona,predchancea,predwida},predregiona为预测区域,predchancea为预测准确的概率,predwida为predregiona对应的预测作者索引,predrwb={predregionb,predchanceb,predwidb},predregionb为预测区域,predchanceb为预测准确的概率,predwidb为predregionb对应的预测作者索引,根据计算两块区域predregiona和predregionb的IoU,得到IoUpredregionab;
步骤S44:对于两块区域E、F,较小的区域被较大的区域的覆盖率rc计算方式如下:
其中min(XA,XB)是计算XA,XB最小值的函数,利用上式计算两块区域predregiona和predregionb的rc,得到rcpredregionab,若IoUpredregionab<thresholdB且predwida=predwidb且rcpredregiomb>thresholdC,则将面积小的区域对应的预测结果从predig中删去,其中thresholdB、thresholdC为阈值参数;
步骤S45:若IoUpredregionab≥thresholdD,则将predchancea、predchanceb较小的一个对应的预测结果从predig中删去,其中thresholdD为阈值参数;
步骤S46:重复S43、S44、S45直到predig中任意元素都不能被删去后,继续按S41、S42、S43、S44、S45步骤处理下一张图片的预测结果,直到ig=1,2,...,td全被处理完毕得到修正后的处理结果output2;
步骤S47:利用作者映射关系fw,将output2子集中的所有作者索引wid恢复为作者信息w,得到最终的书法区域和作者信息。
本发明与现有技术相比具有以下有益效果:
1、本发明能够高效便捷的检测自然场景下的图片包含的书法区域及作者信息;
2、本发明基于CornerNet检测模型进行修改,在保证准确度的情况下,提高了其运行速率,有利于将网络移植到性能一般的便携设备中运行。
3、本发明进一步对误检、重复检测的情况进行后处理,使得得到的结果更简明、精确。
附图说明
图1是本发明方法流程示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种自然场景下的书法区域检测及作者识别方法,包括以下步骤:
步骤S1:采集书法图片,构建书法区域检测与作者信息数据集;
步骤S2:对书法区域检测与作者信息数据集进行预处理;
步骤S3:基于CornerNet网络结构,构建书法区域检测及作者识别网络,并根据预处理后的数据集进行训练;
步骤S4:将待识别的图片送入训练好的书法区域检测及作者识别网络,获取图片中包含书法作品的区域并识别书法作者。
在本实施例中,所述步骤S1具体为:
步骤S11::收集并整理ta张自然场景下包含书法作品的图片IMG={imgia|ia=1,2,...,ta},其中imgia表示第ia张图片;
步骤S12:对每一张图片进行标注,每张图片包含0个、1个或1个以上的标注,每个标注包含一个区域r={rltx,rlty,rwidth,rheight}和一个作者信息w,rltx为区域左上角的x坐标,rlty为区域左上角的y坐标,rwidth为区域宽度,rheight为区域高度;
步骤S13:将每一张图片的任意第ic个区域ric和对应的第ic个作者信息wic组合,获得第ic个标注first_annoic={ric,wic},最终对于任意imgia可以获得一个第ia张图片的标注集合first_annosia={first_annoic|ic=0,1,...,tbia},其中tbia为第ia张图片的标注总数;
步骤S14:将所有图片中的所有标注中的作者信息整理为集合W={wid|id=1,2,...,tw},其中tw为作者总数,建立作者信息索引满映射fw:WID→W,其中WID={1,2,...,tw};
步骤S15:根据映射fw,用WID中的元素将任意first_annosia的所有子集中的wic替换为widic,替换后得到新集合annosia;
步骤S16:将imgia和annosia组合,获得第ia个样本cia={imgia,annosia},作者信息映射关系fw和所有样本组合得到书法区域检测与作者信息数据集C={fw,{cia|ia=1,2,...,ta}}。
在本实施例中,所述步骤S2具体为:对于每一个样本cia={imgia,annosia},随机进行实行裁剪、旋转和缩放变换,每个样本可以生成若干个子样本,获得包含作者信息映射关系fw和tc个样本的增强数据集C′={fw,{c′if|if=1,2,...,tc}},
其中c′if={img′if,annos′if}为增强数据集中的第if个样本,img′if为第if个增强样本的图片,annos′if为第if个增强样本的标注集。
在本实施例中,所述书法区域检测及作者识别网络CornerNet的结构为基础结构并对其进行修改,具体如下:
将图片送入一个用于特征提取的Hourglass-104模块获得深度特征;
将特征图送入角点池化层获得角点特征图,再将角点特征图分别送入三个子网络,三个子网络分别用于预测角点对应的物体类别、匹配角点和预测角点在特征图位置与原图位置的偏移量;
将其网络用于提取特征的Hourglass-104替换为基于ResNet-50的FPN;
其中,FPN的上采样方法为双线性插值加卷积。
优选的,修改后的网络的输入为td张一组的图片inputimgs={inputimgig|ig=1,2,...,td},其中td为该组图片的数量,inputimgig表示该组图片的第ig张,其对应的输出为output={predig|ig=1,2,...,td},其中predig表示第ig张输入图片的预测结果,predig={predrwih|ih=1,2,...,teig},其中teig为第ig张输入图片预测的书法区域数量,predrwih为第ih个预测区域作者集,predrwih={predregionih,predwidih,predchanceih},predregionih为第ih个预测区域,predwidih为第ih个预测区域对应的预测作者索引,predchanceih为第ih个预测区域预测正确的概率,其中predregionih={prltxih,prltyih,prwidthih,prheightih},prltxih为预测区域做左上角x坐标,prltyih为预测区域左上角的y坐标,prwidthih为预测区域宽度,prheightih为预测区域高度。
进一步的,步骤S4具体为:
步骤S41:将一张或多张待检测与识别的td张图片inputimgs送入训练好的书法区域检测及作者识别网络DetNet,获得预测结果output;
步骤S42:对每一张输入图片的预测结果进行后处理,当处理第ig张图片时,对于第ih个预测结果predrwih,若predchanceih<thresholdA,将其从predig集合中删除,其中thresholdA为阈值参数,ih=1,2,...,teig全被执行后,进入下步;
步骤S43:对于两块区域C、D的IoU计算方式如下:
其中area(X)是计算区域X面积的函数,于是对于第ig张输入图片的任意两个预测结果predrwa∈predig,predrwb∈predig且predrwa≠predrwb,其中predrwa={predregiona,predchancea,predwida},predregiona为预测区域,predchancea为预测准确的概率,predwida为predregiona对应的预测作者索引,predrwb={predregionb,predchanceb,predwidb},predregionb为预测区域,predchanceb为预测准确的概率,predwidb为predregionb对应的预测作者索引,根据计算两块区域predregiona和predregionb的IoU,得到IoUpredregionab;
步骤S44:对于两块区域R、F,较小的区域被较大的区域的覆盖率rc计算方式如下:
其中min(XA,XB)是计算XA,XB最小值的函数,利用上式计算两块区域predregiona和predregionb的rc,得到rcpredregionab,若IoUpredregionab<thresholdB且predwida=predwidb且rcpredregionab>thresholdC,则将面积小的区域对应的预测结果从predig中删去,其中thresholdB、thresholdC为阈值参数;进一步去除一些几乎被其他检测区域完全覆盖的重复结果的干扰;
步骤S45:若IoUpredregionab≥thresholdD,则将predchancea、predchanceb较小的一个对应的预测结果从predig中删去,其中thresholdD为阈值参数;进一步去除一些不可靠的检测结果;
步骤S46:重复S43、S44、S45直到predig中任意元素都不能被删去后,继续按S41、S42、S43、S44、S45步骤处理下一张图片的预测结果,直到ig=1,2,...,td全被处理完毕得到修正后的处理结果output2;
步骤S47:利用作者映射关系fw,将output2子集中的所有作者索引wid恢复为作者信息w,得到最终的书法区域和作者信息。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (2)
1.一种自然场景下的书法区域检测及作者识别方法,其特征在于,包括以下步骤:
步骤S1:采集书法图片,构建书法区域检测与作者信息数据集;
步骤S2:对书法区域检测与作者信息数据集进行预处理;
步骤S3:基于CornerNet网络结构,构建书法区域检测及作者识别网络,并根据预处理后的数据集进行训练;
步骤S4:将待识别的图片送入训练好的书法区域检测及作者识别网络,获取图片中包含书法作品的区域并识别书法作者;
所述步骤S1具体为:
步骤S11:收集并整理ta张自然场景下包含书法作品的图片IMG={imgia|ia=1,2,...,ta},其中imgia表示第ia张图片;
步骤S12:对每一张图片进行标注,每张图片包含0个、1个或1个以上的标注,每个标注包含一个区域r={rltx,rlty,rwidth,rheight}和一个作者信息w,rltx为区域左上角的x坐标,rlty为区域左上角的y坐标,rwidth为区域宽度,rheight为区域高度;
步骤S13:将每一张图片的任意第ic个区域ric和对应的第ic个作者信息wic组合,获得第ic个标注first_annoic={ric,wic},最终对于任意imgia获得一个第ia张图片的标注集合first_annosia={first_annoic|ic=0,1,...,tbia},其中tbia为第ia张图片的标注总数;
步骤S14:将所有图片中的所有标注中的作者信息整理为集合W={wid|id=1,2,...,tw},其中tw为作者总数,建立作者信息索引满映射fw:WID→W,其中WID={1,2,...,tw};
步骤S15:根据映射fw,用WID中的元素将任意first_annosia的所有子集中的wic替换为widic,替换后得到新集合annosia;
步骤S16:将imgia和annosia组合,获得第ia个样本cia={imgia,annosia},作者信息映射关系fw和所有样本组合得到书法区域检测与作者信息数据集C={fw,{cia|ia=1,2,...,ta}};
所述步骤S2具体为:对于每一个样本cia={imgia,annosia},随机进行实行裁剪、旋转和缩放变换,每个样本生成若干个子样本,获得包含作者信息映射关系fw和tc个样本的增强数据集C′={fw,{cif|if=1,2,...,tc}},
其中c′if={img′if,annos′if}为增强数据集中的第if个样本,img′if为第if个增强样本的图片,annos′if为第if个增强样本的标注集;
步骤S4具体为:
步骤S41:将一张或多张待检测与识别的td张图片inputimgs送入训练好的书法区域检测及作者识别网络DetNet,获得预测结果output;
步骤S42:对每一张输入图片的预测结果进行后处理,当处理第ig张图片时,对于第ih个预测结果predrwih,若predchanceih<thresholdA,将其从predig集合中删除,其中thresholdA为阈值参数,ih=1,2,...,teig全被执行后,进入下步;
步骤S43:对于两块区域C、D的IoU计算方式如下:
其中area(X)是计算区域X面积的函数,于是对于第ig张输入图片的任意两个预测结果predrwa∈predig,predrwb∈predig且predrwa≠predrwb,其中predrwa={predregiona,predchancea,predwida},predregiona为预测区域,predchancea为预测准确的概率,predwida为predregiona对应的预测作者索引,predrwb={predregionb,predchanceb,predwidb},predregionb为预测区域,predchanceb为预测准确的概率,predwidb为predregionb对应的预测作者索引,根据计算两块区域predregiona和predregionb的IoU,得到IoUpredregionab;
步骤S44:对于两块区域E、F,较小的区域被较大的区域的覆盖率rc计算方式如下:
其中min(XA,XB)是计算XA,XB最小值的函数,利用上式计算两块区域predregiona和predregionb的rc,得到rcpredregionab,若IoUpredregionab<thresholdB且predwida=predwidb且rcpredregionab>thresholdC,则将面积小的区域对应的预测结果从predig中删去,其中thresholdB、thresholdC为阈值参数;
步骤S45:若IoUpredregionab≥thresholdD,则将predchancea、predchanceb较小的一个对应的预测结果从predig中删去,其中thresholdD为阈值参数;
步骤S46:重复S43、S44、S45直到predig中任意元素都不能被删去后,继续按S41、S42、S43、S44、S45步骤处理下一张图片的预测结果,直到ig=1,2,...,td全被处理完毕得到修正后的处理结果output2;
步骤S47:利用作者映射关系fw,将output2子集中的所有作者索引wid恢复为作者信息w,得到最终的书法区域和作者信息。
2.根据权利要求1所述的一种自然场景下的书法区域检测及作者识别方法,其特征在于,所述步骤S3,具体如下:
将图片送入一个用于特征提取的Hourglass-104模块获得深度特征;
将特征图送入角点池化层获得角点特征图,再将角点特征图分别送入三个子网络,三个子网络分别用于预测角点对应的物体类别、匹配角点和预测角点在特征图位置与原图位置的偏移量;
将其网络用于提取特征的Hourglass-104替换为基于ResNet-50的FPN;
其中,FPN的上采样方法为双线性插值加卷积。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011076021.3A CN112200184B (zh) | 2020-10-10 | 2020-10-10 | 一种自然场景下的书法区域检测及作者识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011076021.3A CN112200184B (zh) | 2020-10-10 | 2020-10-10 | 一种自然场景下的书法区域检测及作者识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112200184A CN112200184A (zh) | 2021-01-08 |
CN112200184B true CN112200184B (zh) | 2022-07-08 |
Family
ID=74013259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011076021.3A Active CN112200184B (zh) | 2020-10-10 | 2020-10-10 | 一种自然场景下的书法区域检测及作者识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112200184B (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3029607A1 (en) * | 2014-12-05 | 2016-06-08 | PLANET AI GmbH | Method for text recognition and computer program product |
CN110097049A (zh) * | 2019-04-03 | 2019-08-06 | 中国科学院计算技术研究所 | 一种自然场景文本检测方法及系统 |
CN110516554A (zh) * | 2019-07-31 | 2019-11-29 | 杭州电子科技大学 | 一种多场景多字体中文文字检测识别方法 |
CN111061904B (zh) * | 2019-12-06 | 2023-04-18 | 武汉理工大学 | 一种基于图像内容识别的本地图片快速检测方法 |
CN111104912B (zh) * | 2019-12-23 | 2021-11-23 | 西安电子科技大学 | 一种书法字体类型与文字内容同步识别方法 |
-
2020
- 2020-10-10 CN CN202011076021.3A patent/CN112200184B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112200184A (zh) | 2021-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100550038C (zh) | 图片内容识别方法及识别系统 | |
CN109241861B (zh) | 一种数学公式识别方法、装置、设备及存储介质 | |
CN109343920B (zh) | 一种图像处理方法及其装置、设备和存储介质 | |
CN113255557B (zh) | 一种基于深度学习的视频人群情绪分析方法及系统 | |
CN112686243A (zh) | 智能识别图片文字的方法、装置、计算机设备及存储介质 | |
WO2023165616A1 (zh) | 图像模型隐蔽后门的检测方法及系统、存储介质、终端 | |
CN116311214B (zh) | 车牌识别方法和装置 | |
CN112001362A (zh) | 一种图像分析方法、图像分析装置及图像分析系统 | |
CN111368632A (zh) | 一种签名识别方法及设备 | |
CN111508006A (zh) | 一种基于深度学习的运动目标同步检测、识别与跟踪方法 | |
CN111199050B (zh) | 一种用于对病历进行自动脱敏的系统及应用 | |
CN109753962A (zh) | 基于混合网络的自然场景图像中文本区域的处理方法 | |
CN112560849A (zh) | 基于神经网络算法的文理分割方法及系统 | |
CN112926379A (zh) | 一种构建人脸识别模型的方法及装置 | |
CN115797336A (zh) | 光伏组件的故障检测方法、装置、电子设备和存储介质 | |
CN112651323A (zh) | 一种基于文本行检测的中文手写体识别方法及系统 | |
CN115062186A (zh) | 一种视频内容检索方法、装置、设备以及存储介质 | |
El Abbadi | Scene Text detection and Recognition by Using Multi-Level Features Extractions Based on You Only Once Version Five (YOLOv5) and Maximally Stable Extremal Regions (MSERs) with Optical Character Recognition (OCR) | |
CN115240203A (zh) | 业务数据处理方法、装置、设备及存储介质 | |
Bains et al. | Dynamic features based stroke recognition system for signboard images of Gurmukhi text | |
CN112200184B (zh) | 一种自然场景下的书法区域检测及作者识别方法 | |
Bhatt et al. | Text Extraction & Recognition from Visiting Cards | |
CN114647361A (zh) | 一种基于人工智能的触摸屏物体定位方法及装置 | |
CN111291756B (zh) | 图像中文本区域的检测方法、装置、计算机设备及计算机存储介质 | |
CN114547437A (zh) | 图像检索方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |