CN113850238B - 文档检测方法、装置、电子设备及存储介质 - Google Patents

文档检测方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113850238B
CN113850238B CN202111433042.0A CN202111433042A CN113850238B CN 113850238 B CN113850238 B CN 113850238B CN 202111433042 A CN202111433042 A CN 202111433042A CN 113850238 B CN113850238 B CN 113850238B
Authority
CN
China
Prior art keywords
corner
prediction
image
points
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111433042.0A
Other languages
English (en)
Other versions
CN113850238A (zh
Inventor
张子浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Century TAL Education Technology Co Ltd
Original Assignee
Beijing Century TAL Education Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Century TAL Education Technology Co Ltd filed Critical Beijing Century TAL Education Technology Co Ltd
Priority to CN202111433042.0A priority Critical patent/CN113850238B/zh
Publication of CN113850238A publication Critical patent/CN113850238A/zh
Application granted granted Critical
Publication of CN113850238B publication Critical patent/CN113850238B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供一种文档检测方法、装置、电子设备及存储介质,所述方法包括:获取待检测图像和所述待检测图像的边缘特征图;将所述待检测图像和所述边缘特征图输入至预先训练的角点检测模型,以获取所述待检测图像的角点预测图;根据所述角点预测图中每个特征点的预测得分,从所述角点预测图中确定目标角点;根据所述目标角点的坐标值,从所述待检测图像中裁剪出文档图像,由此,通过结合待检测图像的边缘特征图来获取角点预测图,进而根据从角点预测图中确定的目标角点,从待检测图像中裁剪出文档图像,能够提高图像中文档检测的精度,实现对图像中的文档进行准确地拆分。

Description

文档检测方法、装置、电子设备及存储介质
技术领域
本公开涉及深度学习技术领域,尤其涉及一种文档检测方法、装置、电子设备及存储介质。
背景技术
随着计算机技术和人工智能技术的不断发展,人工智能技术已逐步应用在教育教学场景中,比如拍照搜题、智能批改、题目录入等。
在教育教学场景中,学生或教师在拍摄试卷、作业等的图像时,拍摄的图像中可能存在过多的复杂背景,而现有的文档检测技术无法从包含复杂背景的图像中准确地拆分出文档图像,使得对包含复杂背景的图像进行批改的准确率较低。
因此,如何从图像中准确地拆分出文档图像成为亟待解决的问题。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开实施例提供了一种文档检测方法、装置、电子设备及存储介质。
根据本公开的一方面,提供了一种文档检测方法,包括:
获取待检测图像和所述待检测图像的边缘特征图;
将所述待检测图像和所述边缘特征图输入至预先训练的角点检测模型,以获取所述待检测图像的角点预测图;
根据所述角点预测图中每个特征点的预测得分,从所述角点预测图中确定目标角点;
根据所述目标角点的坐标值,从所述待检测图像中裁剪出文档图像。
根据本公开的另一方面,提供了一种文档检测装置,包括:
图像获取模块,用于获取待检测图像和所述待检测图像的边缘特征图;
预测图获取模块,用于将所述待检测图像和所述边缘特征图输入至预先训练的角点检测模型,以获取所述待检测图像的角点预测图;
确定模块,用于根据所述角点预测图中每个特征点的预测得分,从所述角点预测图中确定目标角点;
裁剪模块,用于根据所述目标角点的坐标值,从所述待检测图像中裁剪出文档图像。
根据本公开的另一方面,提供了一种电子设备,包括:
处理器;以及
存储程序的存储器,
其中,所述程序包括指令,所述指令在由所述处理器执行时使所述处理器执行根据前述一方面所述的文档检测方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据前述一方面所述的文档检测方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被计算机的处理器执行时用于使所述计算机执行根据前述一方面所述的文档检测方法。
本公开实施例中提供的一个或多个技术方案,通过结合待检测图像的边缘特征图来获取角点预测图,进而根据从角点预测图中确定的目标角点,从待检测图像中裁剪出文档图像,能够提高图像中文档检测的精度,实现对图像中的文档进行准确地拆分。
附图说明
在下面结合附图对于示例性实施例的描述中,本公开的更多细节、特征和优点被公开,在附图中:
图1示出了根据本公开一示例性实施例的待检测图像的示例图;
图2示出了根据本公开一示例性实施例的文档检测方法的流程图;
图3示出了根据本公开另一示例性实施例的文档检测方法的流程图;
图4示出了根据本公开一示例性实施例的角点检测模型的结构图;
图5示出了根据本公开一示例性实施例的待检测图像进行边缘特征提取得到的边缘特征图的示例图;
图6示出了根据本公开一示例性实施例的角点预测图的示例图;
图7示出了根据本公开一示例性实施例的后处理流程示意图;
图8示出了根据本公开一示例性实施例的文档图像的裁剪结果示意图;
图9示出了根据本公开一示例性实施例的文档检测装置的示意性框图;
图10示出了能够用于实现本公开的实施例的示例性电子设备的结构框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
以下参照附图描述本公开提供的文档检测方法、装置、电子设备及存储介质。
在教育教学场景中,学生或教师对试卷、作业等页面进行拍摄得到的图像中,可能存在过多的复杂背景,比如图1所示的图像中,不仅包含目标页面11(图1中黑色线条框出的部分),还包括与目标页面11相连的左边页面的部分内容12,左边页面的部分内容12在该图像中成为背景,影响对目标页面11的检测结果,使得对目标页面11进行批改的准确率较低。
针对上述问题,本公开提供了一种文档检测方法,通过结合待检测图像的边缘特征图来获取角点预测图,进而根据从角点预测图中确定的目标角点,从待检测图像中裁剪出文档图像,能够提高图像中文档检测的精度,实现对图像中的文档进行准确地拆分。
图2示出了根据本公开一示例性实施例的文档检测方法的流程图,该方法可以由文档检测装置执行,其中该装置可以采用软件和/或硬件实现,一般可集成在电子设备中,所述电子设备可以是但不限于是智能手机、平板电脑、笔记本电脑、服务器、穿戴式设备等。如图2所示,该文档检测方法包括:
步骤201,获取待检测图像和所述待检测图像的边缘特征图。
其中,待检测图像是指需要进行文档检测的图像。
示例性地,在学生对自己完成的作业进行自检的场景中,待检测图像可以是学生通过电子设备的摄像头,对文档页面进行拍摄后获得的图像。
示例性地,在教师对学生上交的纸质作业或试卷进行批改的场景中,待检测图像可以是教师通过电子设备的摄像头,对学生上交的纸质作业或试卷进行拍摄后获得的图像。
示例性地,在学生以照片的形式上交已完成的纸质作业的场景中,待检测图像可以是从电子设备的存储空间中获取的图像,电子设备的存储空间中的图像是由学生对纸质作业的文档页面进行拍摄后,上传至所述电子设备并由电子设备保存在存储空间中的。
本公开实施例中,对于获取的待检测图像,可以进行边缘特征提取,以获取与待检测图像对应的边缘特征图。
示例性地,可以采用Canny算子边缘检测算法、Sobel算子边缘检测算法、Roberts算子边缘检测算法等边缘检测算法,对待检测图像进行边缘特征提取,以获取待检测图像的边缘特征图,本公开对此不作限制。
步骤202,将所述待检测图像和所述边缘特征图输入至预先训练的角点检测模型,以获取所述待检测图像的角点预测图。
其中,角点检测模型是预先训练得到的,具体的训练过程将在后续实施例中进行详细说明,为避免重复,此处不再赘述。利用训练好的角点检测模型,能够获得图像中所包含文档的角点预测图。
本公开实施例中,对于获取的待检测图像和待检测图像的边缘特征图,可以将该待检测图像和待检测图像的边缘特征图输入至预先训练好的角点检测模型中,由角点检测模型输出待检测图像对应的角点预测图。
其中,角点预测图中包含的是对待检测图像中文档的角点的预测信息,预测信息可以包括但不限于角点预测图中的各特征点的预测得分,各个特征点可以通过对应的坐标值进行标识,不同的特征点的坐标值不同。比如,特征点的坐标值可以用特征点所在行和所在列表示为(u,v),其中,u表示特征点所在的行数,v表示特征点所在的列数。能够理解的是,角点预测图中包含多个特征点,预测得分较大的特征点可能是角点。
本公开实施例中,通过将待检测图像和待检测图像的边缘特征图,输入至角点检测模型中来获取待检测图像的角点预测图,角点检测模型通过融合待检测图像和边缘特征图来确定角点预测图,能够提高角点预测的准确度,为提高文档检测的精度提供了有利条件。
步骤203,根据所述角点预测图中每个特征点的预测得分,从所述角点预测图中确定目标角点。
本公开实施例中,获取了待检测图像的角点预测图之后,可以根据角点预测图中每个特征点的预测得分,从角点预测图中确定出目标角点。
示例性地,可以根据角点预测图中各特征点的预测得分,从各特征点中筛选出预测得分最大的四个点作为目标角点。
能够理解的是,文档的四个角点分布在文档的不同位置,包括左上、右下、左下和右上,为了保证确定的目标角点的准确性,在本公开的一种可选实施方式中,对于确定的预测得分最大的四个点,可以根据这四个点的坐标值,判断这四个点是否分别位于文档的四个角,比如,如果两个点的坐标值相差不大,则这两个点距离较近,位于同一角的概率较大。如果这四个点分别位于文档的四个角,则将这四个点确定为目标角点;如果这四个点非分别位于文档的四个角,则将这四个点中位于同一方位(即同一角)的至少两个点进行过滤处理,只保留一个点作为该方位的角点,并继续从其他特征点中获取预测得分最大的点,新获取的点与上一轮判断中剩余的点组成新一组的四个点,并判断这四个点是否分别位于文档的四个角,重复上述处理过程,直到得到不同方位的四个角点作为目标角点。
步骤204,根据所述目标角点的坐标值,从所述待检测图像中裁剪出文档图像。
本公开实施例中,确定了目标角点之后,基于确定的目标角点的坐标值,可以从待检测图像中裁剪出文档图像。
示例性地,可以采用透视变换,基于确定的目标角点的坐标值,从待检测图像中裁剪出文档图像。
需要说明的是,采用透视变换进行图像裁剪是图像处理技术中较为成熟的技术,本公开对此不作详述。
本公开实施例的文档检测方法,通过获取待检测图像和待检测图像的边缘特征图,将待检测图像和边缘特征图输入至预先训练的角点检测模型,以获取待检测图像的角点预测图,并根据角点预测图中每个特征点的预测得分,从角点预测图中确定目标角点,进而根据目标角点的坐标值,从待检测图像中裁剪出文档图像。采用上述技术方案,通过结合待检测图像的边缘特征图来获取角点预测图,进而根据从角点预测图中确定的目标角点,从待检测图像中裁剪出文档图像,能够提高图像中文档检测的精度,实现对图像中的文档进行准确地拆分有利于提高对包含复杂背景的图像进行批改的准确率。
通常,角点分布在文档的四个不同的方位,即四个不同的角,包括左上角、左下角、右上角和右下角,根据至少两个不同方位的角点可以确定出待检测图像中文档的位置。从而,在本公开的一种可选实施方式中,角点预测图包括左上角点预测图、左下角点预测图、右上角点预测图和右下角点预测图中的至少一个,相应地,所述根据所述角点预测图中每个特征点的预测得分,从所述角点预测图中确定目标角点,可以包括:
将所述角点预测图中预测得分大于预设得分阈值的特征点,确定为所述目标角点。
其中,预设得分阈值可以预先设定,比如预设得分阈值可以设置为0.3、0.5等,本公开对此不作限制。
本公开实施例中,对于任一角点预测图,可以根据角点预测图中各个特征点的预测得分,从特征点中选择预测得分大于预设得分阈值的特征点,作为目标角点。
在本公开的一种可选实施方式中,目标角点包括目标左上角点、目标左下角点、目标右上角点和目标右下角点中的至少一个,并且其中,所述根据所述角点预测图中每个特征点的预测得分,从所述角点预测图中确定目标角点,包括:
将左上角点预测图中预测得分大于预设得分阈值的特征点确定为目标左上角点;
将左下角点预测图中预测得分大于所述预设得分阈值的特征点确定为目标左下角点;
将右上角点预测图中预测得分大于所述预设得分阈值的特征点确定为目标右上角点;
将右下角点预测图中预测得分大于所述预设得分阈值的特征点确定为目标右下角点。
本公开实施例中,左上角点预测图是对文档的左上角点的预测结果,右上角点预测图是对文档的右上角点的预测结果,左下角点预测图是对文档的左下角点的预测结果,右下角点预测图是对文档的右下角点的预测结果,左上角点预测图中对应于文档左上方的特征点的预测得分,通常大于其他位置的特征点的预测得分,同理,右上角点预测图中对应于文档右上方的特征点的预测得分,通常大于其他位置的特征点的预测得分,左下角点预测图中对应于文档左下方的特征点的预测得分,通常大于其他位置的特征点的预测得分,右下角点预测图中对应于文档右下方的特征点的预测得分,通常大于其他位置的特征点的预测得分。从而,本公开实施例中,可以根据各角点预测图中各特征点的预测得分,从各角点预测图中确定出各方向上的目标角点。
示例性地,可以根据各角点预测图中各特征点的预测得分,从各角点预测图中选择预测得分最大的特征点作为一个目标角点。对于左上角点预测图,比较左上角点预测图中每个特征点对应的预测得分,从所有特征点中选择预测得分最大的特征点作为目标左上角点;对于右上角点预测图,比较右上角点预测图中每个特征点对应的预测得分,从所有特征点中选择预测得分最大的特征点作为目标右上角点;对于左下角点预测图,比较左下角点预测图中每个特征点对应的预测得分,从所有特征点中选择预测得分最大的特征点作为目标左下角点;对于右下角点预测图,比较右下角点预测图中每个特征点对应的预测得分,从所有特征点中选择预测得分最大的特征点作为目标右下角点。进一步地,如果某个角点预测图中预测得分最大的特征点不止一个,则可以采用随机选择一个、将多个特征点进行均值合并等方式,确定该角点预测图中的目标角点。
示例性地,可以根据各角点预测图中各特征点的预测得分,从各角点预测图中选择预测得分大于预设得分阈值的特征点作为一个目标角点。对于左上角点预测图,将左上角点预测图中每个特征点对应的预测得分与预设得分阈值进行比较,从所有特征点中筛选出预测得分大于预设得分阈值的特征点作为目标左上角点。对于左下角点预测图,将左下角点预测图中每个特征点对应的预测得分与预设得分阈值进行比较,从所有特征点中筛选出预测得分大于预设得分阈值的特征点作为目标左下角点。对于右下角点预测图,将右下角点预测图中每个特征点对应的预测得分与预设得分阈值进行比较,从所有特征点中筛选出预测得分大于预设得分阈值的特征点作为目标右下角点。对于右上角点预测图,将右上角点预测图中每个特征点对应的预测得分与预设得分阈值进行比较,从所有特征点中筛选出预测得分大于预设得分阈值的特征点作为目标右上角点。
进一步地,将所述角点预测图中预测得分大于预设得分阈值的特征点,确定为所述目标角点时,可以先根据所述角点预测图中每个特征点的预测得分,将预测得分大于所述预设得分阈值的特征点作为候选角点;再根据候选角点的个数,选择对应的处理策略来确定目标角点。具体地,在所述候选角点为一个的情况下,将所述候选角点确定为目标角点;在所述候选角点为至少两个的情况下,将该至少两个所述候选角点进行合并处理,并将合并后的候选角点作为所述目标角点。
示例性地,对于左上角点预测图,可以根据左上角点预测图中每个特征点的预测得分,将预测得分大于预设得分阈值的特征点作为候选左上角点,如果候选左上角点为一个,则该候选左上角点即为目标左上角点;如果候选左上角点为至少两个,则可以对这至少两个候选左上角点进行合并处理,将合并后的角点确定为目标左上角点。对于左下角点预测图,可以根据左下角点预测图中每个特征点的预测得分,将预测得分大于预设得分阈值的特征点作为候选左下角点,如果候选左下角点为一个,则该候选左下角点即为目标左下角点;如果候选左下角点为至少两个,则可以对这至少两个候选左下角点进行合并处理,将合并后的角点确定为目标左下角点。对于右上角点预测图,可以根据右上角点预测图中每个特征点的预测得分,将预测得分大于预设得分阈值的特征点作为候选右上角点,如果候选右上角点为一个,则该候选右上角点即为目标右上角点;如果候选右上角点为至少两个,则可以对这至少两个候选右上角点进行合并处理,将合并后的角点确定为目标右上角点。对于右下角点预测图,可以根据右下角点预测图中每个特征点的预测得分,将预测得分大于预设得分阈值的特征点作为候选右下角点,如果候选右下角点为一个,则该候选右下角点即为目标右下角点;如果候选右下角点为至少两个,则可以对这至少两个候选右下角点进行合并处理,将合并后的角点确定为目标右下角点。
在本公开的一种可选实施方式中,所述将该至少两个候选角点进行合并处理,并将合并后的候选角点作为所述目标角点,可以包括:根据所述至少两个候选角点中每个候选角点的坐标值,计算得到一个中值坐标值,将该中值坐标值对应的坐标点确定为目标左上角点。
在本公开的一种可选实施方式中,所述将该至少两个候选角点进行合并处理,并将合并后的候选角点作为所述目标角点,可以包括:根据所述至少两个候选角点中每个候选角点的坐标值,确定所述至少两个候选角点的平均坐标值;将所述平均坐标值对应的坐标点确定为所述目标角点。
本公开实施例中,当确定候选角点为至少两个时,可以根据每个候选角点的坐标值,计算得到至少两个候选角点的平均坐标值,进而将平均坐标值对应的坐标点确定为目标角点。以候选角点为候选左上角点为例,当确定的候选左上角点为至少两个时,可以根据每个候选左上角点对应的坐标值,计算得到一个平均坐标值,将平均坐标值对应的坐标点确定为目标左上角点。也就是说,根据每个候选左上角点对应的横坐标和纵坐标分别求均值,计算得到横坐标均值和纵坐标均值,根据所得的横坐标均值和纵坐标均值确定一个新的坐标点作为目标左上角点。由此,实现了通过均值合并的方式从多个候选左上角点中确定目标左上角点。
当确定的某个方向上的候选角点为多个时,如果某个候选角点距离其他候选角点较远,则该候选角点属于该方向的概率不大。以左上角点为例,如果某个候选左上角点距离其他候选左上角点较远,则该候选左上角点位于文档的左上角的概率不大,若该候选左上角点参与目标左上角点的确定过程,则可能影响最终确定的目标左上角点的准确性。因此,在本公开的一种可选实施方式中,为了保证最终确定的目标角点的精度,在所述候选角点为至少两个的情况下,在将至少两个所述候选角点进行合并处理,得到目标角点之前,可以先确定至少两个候选角点中第一候选角点与其他候选角点的距离,其中,所述第一候选角点为所述至少两个候选角点中任一候选角点;响应于确定所述第一候选角点与其他候选角点的距离中的最小距离大于预设距离阈值,删除所述第一候选角点。其中,预设距离阈值可以预先设定,预设距离阈值可以指两个候选角点之间相隔的特征点的数量,比如预设距离阈值可以设置为5,则如果任一候选角点与其他候选角点之间相隔的特征点的个数中,最小个数大于5个,则将该候选角点删除,不用于合并处理。
以候选角点为候选左上角点为例,当候选左上角点为至少两个时,以任一候选左上角点为第一候选左上角点,计算第一候选左上角点与其他候选左上角点之间的距离,并在确定第一候选左上角点与其他候选左上角点的距离中的最小距离大于预设距离阈值时,则将第一候选左上角点删除。
本公开实施例中,当确定的候选角点为多个时,在将至少两个所述候选角点进行合并处理,得到目标角点之前,先确定至少两个候选角点中第一候选角点与其他候选角点的距离,第一候选角点为至少两个候选角点中任一候选角点,响应于确定第一候选角点与其他候选角点的距离中的最小距离大于预设距离阈值,删除第一候选角点,由此,通过删除候选角点中距离其他候选角点较远的候选角点,能够提高确定的目标角点的准确性。
能够理解的是,上述描述仅以确定目标左上角点为例,来解释说明本公开实施例中从各个角点预测图(包括左上角点预测图、左下角点预测图、右上角点预测图和右下角点预测图)中确定对应的目标角点(包括目标左上角点、目标左下角点、目标右上角点和目标右下角点)的实现过程,目标左下角点、目标右上角点和目标右下角点的确定可以采用上述确定目标左上角点类似的方式来实现,本公开对确定目标左下角点、目标右上角点和目标右下角点的过程不再赘述。
在本公开的一种可选实施方式中,在所述根据所述目标角点的坐标值,从所述待检测图像中裁剪出文档图像之前,还包括:确定所述目标角点的个数为预设个数。
其中,预设个数可以预先设定,比如,可以设置预设个数为4个。
文档页面通常是四边形,四边形具有四个角,分别为左上角、右上角、右下角和左下角,因此本公开实施例中,可以设置预设个数为4个,在确定了目标角点之后,先判断目标角点的个数是否为4个,如果不是4个,则不对待检测图像进行裁剪,如果目标角点的个数为4个,则根据所确定的目标角点的坐标值,采用透视变换,从待检测图像中裁剪出文档图像。由此,通过在进行图像裁剪前先确定目标角点的个数为预设个数,之后再根据目标角点裁剪图像得到文档图像,保证了文档检测的准确性,提高了文档图像的裁剪精度。
能够理解的是,当目标角点的个数为3个时,或者目标角点的个数为两个,但这两个目标角点为对角线上的角点时,也能从待检测文档中裁剪出文档图像。因此,预设个数也可以设置为2个或3个。
图3示出了根据本公开另一示例性实施例的文档检测方法的流程图,如图3所示,本公开实施例中的角点检测模型可以通过如下步骤训练得到:
步骤301,获取训练样本集,所述训练样本集包括样本图像、与所述样本图像对应的边缘特征图,以及所述样本图像中文档的角点标注数据。
本公开实施例中,可以通过从网上公开的图片中获取或者通过线下收集的方式获取若干个包含至少一个文档的样本图像,获取的样本图像包括但不限于教育场景文档,并对获取的样本图像进行边缘特征提取,以得到与样本图像对应的边缘特征图,以及,对获取的样本图像进行标注,标注出样本图像中每个文档对应的角点标注数据,得到标注好的多个样本图像,标注好的样本图像和对应的边缘特征图构成训练样本集。
其中,对样本图像进行边缘特征提取时,可以采用Canny算子边缘检测算法、Sobel算子边缘检测算法、Roberts算子边缘检测算法等边缘检测算法来提取样本图像的特征,得到与样本图像对应的边缘特征图,本公开对获取边缘特征图时采用的边缘检测算法不作限制。
示例性地,在对样本图像进行标注时,选取样本图像中文档的各个角点并赋值为1,其余点赋值为0。能够理解的是,角点标注数据中包括每个点的赋值,不同的点可以通过对应的坐标值进行标识,不同的点的坐标值不同。比如,样本图像中各个像素点的坐标值可以用各像素点所在行和所在列表示为(u,v),其中,u表示像素点所在的行数,v表示像素点所在的列数。
可选地,由于不同的样本图像之间的尺寸存在差异,为便于模型训练,可以对收集的样本图像进行尺寸修正处理,将不同尺寸的样本图像均修正为统一的尺寸,比如,将样本图像的尺寸修正为统一的320*320*3,相应地,对320*320*3的样本图像进行边缘特征提取,得到的边缘特征图的尺寸为320*320*1。
步骤302,将所述样本图像以及与所述样本图像对应的边缘特征图输入待训练模型进行通道融合,得到多维特征数组。
本公开实施例中,对于训练样本集中的样本图像和对应的边缘特征图,可以将每个样本图像和该样本图像对应的边缘特征图一起输入至待训练模型中,在待训练模型中进行通道融合,得到一个多维特征数组。
示例性地,假设样本图像为320*320*3,对应的边缘特征图为320*320*1,则进行通道融合得到一个320*320*4的多维特征数组。也就是说,将一个三通道的样本图像和一个一通道的边缘特征图进行通道上的特征融合,得到一个四通道的多维特征数组。
步骤303,对所述多维特征数组进行特征提取,获取与所述样本图像对应的输出特征图。
示例性地,可以采用轻量化的骨干网络(backbone)对通道融合得到的多维特征数组进行特征提取,得到与样本图像对应的输出特征图。
步骤304,对所述输出特征图进行卷积处理,得到角点预测图。
本公开实施例中,对于特征提取得到的输出特征图,将输出特征图输入至待训练模型的卷积层,利用卷积层的卷积核对输出特征图进行卷积处理,以根据输出特征图预测得到角点预测图。
步骤305,根据所述角点预测图中特征点的预测结果与所述角点标注数据之间的差异,更新所述待训练模型的网络参数,直至所述待训练模型的损失函数值小于或等于预设值,得到所述角点检测模型。
其中,预设值可以预先设定,比如设置预设值为0.01、0.001等。
能够理解的是,模型的训练是个重复迭代的过程,通过不断地调整模型的网络参数进行训练,直到模型整体的损失函数值小于预设值,或者模型整体的损失函数值不再变化或变化幅度缓慢,模型收敛,得到训练好的模型。
本公开实施例中,得到角点预测图之后,可以根据角点预测图中各个特征点对应的预测结果,与角点标注数据中样本图像的各个点对应的标注值(赋值1或0)之间的差异,更新待训练模型的网络参数,直至待训练模型的损失函数值小于或等于预设值,得到训练好的角点检测模型。
示例性地,本公开实施例中,待训练模型的损失函数可以采用Dice loss损失函数,Dice loss损失函数(记为L dice )如公式(1)所示。
Figure 306678DEST_PATH_IMAGE001
其中,X表示角点预测图中特征点的集合,Y表示角点标注数据,|X|表示X中的元素的个数,|Y|表示Y中的元素的个数,|X∩Y|表示X和Y之间的交集的个数。
本公开实施例中,在每次迭代训练过程中,可以根据角点预测图中特征点的预测结果与角点标注数据中样本图像的各个点对应的标注值之间的差异,计算待训练模型的损失函数值,并将计算得到的损失函数值与预设值进行比较,若损失函数值大于预设值,则更新待训练模型的网络参数,基于更新网络参数后的待训练模型重新获取角点预测图,并根据新获取的角点预测图再次计算待训练模型的损失函数值,如此迭代,直至损失函数值小于预设值,得到训练好的角点检测模型。
本公开实施例中,通过获取样本图像对应的边缘特征图作为训练样本,在训练得到角点检测模型时,待训练模型将样本图像和边缘特征图进行通道融合,得到一个多维特征数组来获取输出特征图,通过特征融合丰富了输出特征图的特征,有利于提高模型的检测精度,并且,通过预先训练得到角点检测模型,为后续利用确定的目标角点进行图像裁剪,拆分出图像中的文档提供了条件。
图4示出了根据本公开一示例性实施例的角点检测模型的结构图,利用图4所示的角点检测模型,可以获取到图像的角点预测图。如图4所示,角点检测模型输出的角点预测图为80*80*4,也就是说,角点预测图为4通道,分别为左上角点预测图、右上角点预测图、左下角点预测图和左下角点预测图。图1示出了根据本公开一示例性实施例的待检测图像的示例图,如图1所示,待检测图像中不仅包含目标页面11,还包括与目标页面相连的左边页面的部分内容12(相对于目标页面而言是背景),将图1所示的待检测图像处理为320*320*3的尺寸,并对处理后的待检测图像进行边缘特征提取,获取待检测图像的边缘特征图,得到的边缘特征图如图5所示,边缘特征图为320*320*1。之后,将320*320*3的待检测图像和320*320*1的边缘特征图输入至图4所示的角点检测模型中,由角点检测模型对边缘特征图和待检测图像进行通道上的特征融合,得到一个320*320*4的多维特征数组,并由角点检测模型的backbone网络对320*320*4的多维特征数组进行特征提取,得到输出特征图,再将输出特征图输入至角点检测模型的卷积层,利用卷积核对输出特征图进行卷积处理,得到80*80*4的角点预测图,如图6所示。之后,对角点预测模型输出的角点预测图进行后处理,完成待检测图像中文档的拆分,得到文档图像。
图7示出了根据本公开一示例性实施例的后处理流程示意图,如图7所示,对于获取的角点预测图,先执行步骤701,将4个通道中每个通道的角点预测图的特征点的预测得分与预设得分阈值进行比较,再执行步骤702,从每个通道的角点预测图的特征点中选取预测得分大于或等于预设得分阈值的点,得到目标角点703。对于确定的目标角点703,执行步骤704,判断目标角点的个数是否为预设个数,如果目标角点的个数不为预设个数,则不对图1所示的待检测图像进行裁剪,结束本次流程;如果目标角点的个数为预设个数,则执行步骤705,根据每个目标角点的坐标值,对待检测图像进行裁剪,从待检测图像中裁剪出文档图像,裁剪结果如图8所示。采用本公开的方案,通过融合边缘特征,利用角点检测得到文档的4个角点坐标,进而裁剪出文档对应的图像,可以提高文档检测的精度,实现图像中文档的准确拆分。对比图1和图8可以看出,本公开提供的方案能够准确地从图像中裁剪出文档页面。
本公开示例性实施例还提供了一种文档检测装置。
图9示出了根据本公开一示例性实施例的文档检测装置的示意性框图,如图9所示,该文档检测装置90包括:图像获取模块901、预测图获取模块902、确定模块903和裁剪模块904。
其中,图像获取模块901,用于获取待检测图像和所述待检测图像的边缘特征图;
预测图获取模块902,用于将所述待检测图像和所述边缘特征图输入至预先训练的角点检测模型,以获取所述待检测图像的角点预测图;
确定模块903,用于根据所述角点预测图中每个特征点的预测得分,从所述角点预测图中确定目标角点;
裁剪模块904,用于根据所述目标角点的坐标值,从所述待检测图像中裁剪出文档图像。
可选地,所述角点预测图包括左上角点预测图、左下角点预测图、右上角点预测图和右下角点预测图中的至少一个;相应地,所述确定模块903可以用于:
将所述角点预测图中预测得分大于预设得分阈值的特征点,确定为所述目标角点。
可选地,所述目标角点包括目标左上角点、目标左下角点、目标右上角点和目标右下角点中的至少一个,所述确定模块903还可以用于:
将左上角点预测图中预测得分大于预设得分阈值的特征点确定为目标左上角点;
将左下角点预测图中预测得分大于所述预设得分阈值的特征点确定为目标左下角点;
将右上角点预测图中预测得分大于所述预设得分阈值的特征点确定为目标右上角点;
将右下角点预测图中预测得分大于所述预设得分阈值的特征点确定为目标右下角点。
可选地,所述确定模块903,可以包括:
候选角点确定单元,用于根据所述角点预测图中每个特征点的预测得分,将预测得分大于所述预设得分阈值的特征点作为候选角点;
第一目标角点确定单元,用于在所述候选角点为一个的情况下,将所述候选角点确定为所述目标角点;
第二目标角点确定单元,用于在所述候选角点为至少两个的情况下,将该至少两个候选角点进行合并处理,并将合并后的候选角点作为所述目标角点。
可选地,所述第二目标角点确定单元,还可以用于:
根据所述至少两个候选角点中每个候选角点的坐标值,确定所述至少两个候选角点的平均坐标值;
将所述平均坐标值对应的坐标点确定为所述目标角点。
可选地,所述装置还包括:
计算模块,用于确定至少两个候选角点中第一候选角点与其他候选角点的距离,其中,所述第一候选角点为所述至少两个候选角点中任一候选角点;
过滤模块,用于响应于确定所述第一候选角点与其他候选角点的距离中的最小距离大于预设距离阈值,删除所述第一候选角点。
可选地,所述装置还包括:
角点个数确定模块,用于确定所述目标角点的个数为预设个数。
可选地,所述装置还包括:模型训练模块;所述模型训练模块用于:
获取训练样本集,所述训练样本集包括样本图像、与所述样本图像对应的边缘特征图,以及所述样本图像中文档的角点标注数据;
将所述样本图像以及与所述样本图像对应的边缘特征图输入待训练模型进行通道融合,得到多维特征数组;
对所述多维特征数组进行特征提取,获取与所述样本图像对应的输出特征图;
对所述输出特征图进行卷积处理,得到角点预测图;
根据所述角点预测图中特征点的预测结果与所述角点标注数据之间的差异,更新所述待训练模型的网络参数,直至所述待训练模型的损失函数值小于或等于预设值,得到所述角点检测模型。
本公开实施例所提供的文档检测装置,可执行本公开实施例所提供的任意可应用于服务器等电子设备的文档检测方法,具备执行方法相应的功能模块和有益效果。本公开装置实施例中未详尽描述的内容可以参考本公开任意方法实施例中的描述。
本公开示例性实施例还提供一种电子设备,包括:处理器,以及存储程序的存储器,所述处理器为至少一个,所述存储器与至少一个处理器通信连接。所述程序包括指令,所述指令在由所述处理器执行时使所述处理器执行根据本公开实施例的文档检测方法。
本公开示例性实施例还提供一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令在被计算机的处理器执行时用于使所述计算机执行根据本公开实施例的文档检测方法。
本公开示例性实施例还提供一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被计算机的处理器执行时用于使所述计算机执行根据本公开实施例的文档检测方法。
参考图10,现将描述可以作为本公开的服务器或客户端的电子设备1000的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,电子设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM1002以及RAM1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
电子设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006、输出单元1007、存储单元1008以及通信单元1009。输入单元1006可以是能向电子设备1000输入信息的任何类型的设备,输入单元1006可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入。输出单元1007可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元1004可以包括但不限于磁盘、光盘。通信单元1009允许电子设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙TM设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理。例如,在一些实施例中,文档检测方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM1002和/或通信单元1009而被载入和/或安装到电子设备1000上。在一些实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行文档检测方法。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
如本公开使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。

Claims (10)

1.一种文档检测方法,所述方法包括:
获取待检测图像和所述待检测图像的边缘特征图;
将所述待检测图像和所述边缘特征图输入至预先训练的角点检测模型,以获取所述待检测图像的角点预测图,其中,所述角点预测图中包括对所述待检测图像中文档的角点的预测信息,所述预测信息包括所述角点预测图中各特征点的预测得分;
根据所述角点预测图中每个特征点的预测得分,从所述角点预测图中确定出预测得分最大的四个角点;
根据所述四个角点的坐标值,判断所述四个角点是否分别位于文档的四个角;
响应于确定所述四个角点分别位于文档的四个角,将所述四个角点确定为目标角点;
响应于确定所述四个角点非分别位于文档的四个角,从所述四个角点中位于同一方位的至少两个角点中确定出一个角点作为所述同一方位的角点,并从其他特征点中获取预测得分最大的新的角点,与上一轮判断中保留的角点组成新一组的四个角点;
判断所述新一组的四个角点是否位于文档的四个角,直到得到不同方位的四个角点作为目标角点;
根据所述目标角点的坐标值,从所述待检测图像中裁剪出文档图像。
2.根据权利要求1所述的文档检测方法,其中,所述角点预测图包括左上角点预测图、左下角点预测图、右上角点预测图和右下角点预测图中的至少一个,
并且其中,所述根据所述角点预测图中每个特征点的预测得分,从所述角点预测图中确定目标角点,包括:
将所述角点预测图中预测得分大于预设得分阈值的特征点,确定为所述目标角点。
3.根据权利要求2所述的方法,其中,所述目标角点包括目标左上角点、目标左下角点、目标右上角点和目标右下角点中的至少一个,
并且其中,所述将所述角点预测图中预测得分大于预设得分阈值的特征点,确定为所述目标角点,包括:
将左上角点预测图中预测得分大于所述预设得分阈值的特征点确定为目标左上角点;
将左下角点预测图中预测得分大于所述预设得分阈值的特征点确定为目标左下角点;
将右上角点预测图中预测得分大于所述预设得分阈值的特征点确定为目标右上角点;
将右下角点预测图中预测得分大于所述预设得分阈值的特征点确定为目标右下角点。
4.根据权利要求2或3所述的文档检测方法,其中,所述将所述角点预测图中预测得分大于预设得分阈值的特征点,确定为所述目标角点,包括:
根据所述角点预测图中每个特征点的预测得分,将预测得分大于所述预设得分阈值的特征点作为候选角点;
在所述候选角点为一个的情况下,将所述候选角点确定为所述目标角点;
在所述候选角点为至少两个的情况下,将该至少两个候选角点进行合并处理,并将合并后的候选角点作为所述目标角点。
5.根据权利要求4所述的文档检测方法,其中,所述将该至少两个候选角点进行合并处理,并将合并后的候选角点作为所述目标角点,包括:
根据所述至少两个候选角点中每个候选角点的坐标值,确定所述至少两个候选角点的平均坐标值;
将所述平均坐标值对应的坐标点确定为所述目标角点。
6.根据权利要求4所述的文档检测方法,其中,在所述候选角点为至少两个的情况下,所述方法还包括:
确定至少两个候选角点中第一候选角点与其他候选角点的距离,其中,所述第一候选角点为所述至少两个候选角点中任一候选角点;
响应于确定所述第一候选角点与其他候选角点的距离中的最小距离大于预设距离阈值,删除所述第一候选角点。
7.根据权利要求1-3任一项所述的文档检测方法,其中,所述角点检测模型通过如下步骤训练得到:
获取训练样本集,所述训练样本集包括样本图像、与所述样本图像对应的边缘特征图,以及所述样本图像中文档的角点标注数据;
将所述样本图像以及与所述样本图像对应的边缘特征图输入待训练模型进行通道融合,得到多维特征数组;
对所述多维特征数组进行特征提取,获取与所述样本图像对应的输出特征图;
对所述输出特征图进行卷积处理,得到角点预测图;
根据所述角点预测图中特征点的预测结果与所述角点标注数据之间的差异,更新所述待训练模型的网络参数,直至所述待训练模型的损失函数值小于或等于预设值,以得到所述角点检测模型。
8.一种文档检测装置,包括:
图像获取模块,用于获取待检测图像和所述待检测图像的边缘特征图;
预测图获取模块,用于将所述待检测图像和所述边缘特征图输入至预先训练的角点检测模型,以获取所述待检测图像的角点预测图,其中,所述角点预测图中包括对所述待检测图像中文档的角点的预测信息,所述预测信息包括所述角点预测图中各特征点的预测得分;
确定模块,用于根据所述角点预测图中每个特征点的预测得分,从所述角点预测图中确定出预测得分最大的四个角点;以及
根据所述四个角点的坐标值,判断所述四个角点是否分别位于文档的四个角;
响应于确定所述四个角点分别位于文档的四个角,将所述四个角点确定为目标角点;
响应于确定所述四个角点非分别位于文档的四个角,从所述四个角点中位于同一方位的至少两个角点中确定出一个角点作为所述同一方位的角点,并从其他特征点中获取预测得分最大的新的角点,与上一轮判断中保留的角点组成新一组的四个角点;
判断所述新一组的四个角点是否位于文档的四个角,直到得到不同方位的四个角点作为目标角点;
裁剪模块,用于根据所述目标角点的坐标值,从所述待检测图像中裁剪出文档图像。
9.一种电子设备,包括:
处理器;以及
存储程序的存储器,
其中,所述程序包括指令,所述指令在由所述处理器执行时使所述处理器执行根据权利要求1-7中任一项所述的文档检测方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的文档检测方法。
CN202111433042.0A 2021-11-29 2021-11-29 文档检测方法、装置、电子设备及存储介质 Active CN113850238B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111433042.0A CN113850238B (zh) 2021-11-29 2021-11-29 文档检测方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111433042.0A CN113850238B (zh) 2021-11-29 2021-11-29 文档检测方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113850238A CN113850238A (zh) 2021-12-28
CN113850238B true CN113850238B (zh) 2022-03-04

Family

ID=78982222

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111433042.0A Active CN113850238B (zh) 2021-11-29 2021-11-29 文档检测方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN113850238B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117974429A (zh) * 2022-10-24 2024-05-03 蔚来移动科技有限公司 图像处理方法、设备、终端和介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113326836A (zh) * 2020-02-28 2021-08-31 深圳市丰驰顺行信息技术有限公司 车牌识别方法、装置、服务器及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7406196B2 (en) * 2004-03-19 2008-07-29 Lockheed Martin Corporation Methods and systems for automatic detection of corners of a region
CN109118473B (zh) * 2018-07-03 2022-04-12 深圳大学 基于神经网络的角点检测方法、存储介质与图像处理系统
CN112241736B (zh) * 2019-07-19 2024-01-26 上海高德威智能交通系统有限公司 一种文本检测的方法及装置
CN111242088B (zh) * 2020-01-22 2023-11-28 上海商汤临港智能科技有限公司 一种目标检测方法、装置、电子设备及存储介质
CN113033346B (zh) * 2021-03-10 2023-08-04 北京百度网讯科技有限公司 文本检测方法、装置和电子设备
CN112906708B (zh) * 2021-03-29 2023-10-24 北京世纪好未来教育科技有限公司 一种图片处理方法、装置、电子设备和计算机存储介质
CN113486910B (zh) * 2021-09-07 2021-11-19 北京欧应信息技术有限公司 用于提取数据信息区域的方法、设备和存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113326836A (zh) * 2020-02-28 2021-08-31 深圳市丰驰顺行信息技术有限公司 车牌识别方法、装置、服务器及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于机器视觉的小目标复制图像篡改检测方法;赵宝水等;《计算机仿真》;20210831;全文 *

Also Published As

Publication number Publication date
CN113850238A (zh) 2021-12-28

Similar Documents

Publication Publication Date Title
EP3916627A1 (en) Living body detection method based on facial recognition, and electronic device and storage medium
CN113313083B (zh) 文本检测方法及装置
CN111144215B (zh) 图像处理方法、装置、电子设备及存储介质
WO2020211242A1 (zh) 一种基于行为识别的方法、装置及存储介质
CN113781356A (zh) 图像去噪模型的训练方法、图像去噪方法、装置及设备
CN113850238B (zh) 文档检测方法、装置、电子设备及存储介质
CN113269280B (zh) 文本检测方法、装置、电子设备及计算机可读存储介质
CN113420763B (zh) 文本图像处理方法、装置、电子设备及可读存储介质
CN112949649B (zh) 一种文本图像的识别方法、装置及计算设备
CN113850239B (zh) 多文档检测方法、装置、电子设备及存储介质
CN113516697A (zh) 图像配准的方法、装置、电子设备及计算机可读存储介质
CN115471439A (zh) 显示面板缺陷的识别方法、装置、电子设备及存储介质
CN112784733A (zh) 一种基于线上教育的情绪识别方法、装置及电子设备
CN111539390A (zh) 一种基于Yolov3的小目标图像识别方法、设备和系统
CN108304840B (zh) 一种图像数据处理方法以及装置
CN113255629B (zh) 文档处理方法、装置、电子设备及计算机可读存储介质
CN115273057A (zh) 文本识别方法、装置和听写批改方法、装置及电子设备
CN113850805B (zh) 多文档检测方法、装置、电子设备及存储介质
CN115004245A (zh) 目标检测方法、装置、电子设备和计算机存储介质
CN113011409A (zh) 一种图像识别方法、装置、电子设备及存储介质
CN115063822A (zh) 文档检测方法、装置、电子设备及存储介质
CN113657311B (zh) 识别区域排序方法、系统、电子设备及存储介质
CN116777734A (zh) 背景渗透图像的生成方法、装置、设备及存储介质
CN116543400A (zh) 一种错字识别方法、装置设备及介质
CN116912849A (zh) 文档恢复方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant