CN112116618A - 一种合成图片自动切割方法 - Google Patents

一种合成图片自动切割方法 Download PDF

Info

Publication number
CN112116618A
CN112116618A CN202010935597.4A CN202010935597A CN112116618A CN 112116618 A CN112116618 A CN 112116618A CN 202010935597 A CN202010935597 A CN 202010935597A CN 112116618 A CN112116618 A CN 112116618A
Authority
CN
China
Prior art keywords
picture
edge
pictures
model
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010935597.4A
Other languages
English (en)
Other versions
CN112116618B (zh
Inventor
杨疆
徐旦麒
谭亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Aigeng Technology Co ltd
Original Assignee
Hangzhou Aigeng Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Aigeng Technology Co ltd filed Critical Hangzhou Aigeng Technology Co ltd
Priority to CN202010935597.4A priority Critical patent/CN112116618B/zh
Publication of CN112116618A publication Critical patent/CN112116618A/zh
Application granted granted Critical
Publication of CN112116618B publication Critical patent/CN112116618B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种合成图片自动切割方法,包括以下步骤:(1)输入待处理的合成图片;(2)对合成图片进行预处理;(3)深度学习模型对预处理后的合成图片进行处理,得到预测的掩码;(4)根据预测得到的掩码,对合成图片进行后处理,得到切割后的子图片。本发明能够对合成图片进行自动分隔拆分,不需要人工参与,能达到像素级精度,相比于传统人工设计特征的方案,本发明能进行端到端的训练,网络自动从数据中学习相应的特征,无需耗费大量时间和精力来设计和选取合适的特征,算法鲁棒性更好,无需非常复杂的后处理过程。

Description

一种合成图片自动切割方法
技术领域
本发明具体涉及一种合成图片自动切割方法。
背景技术
随着互联网技术的不断普及,互联网多媒体的呈现形式也由最初的文字,发展到今天的图片和视频等等。在数量庞大的互联网图片中,拼接图片(即合成图片)广泛存在,比如:用户上传的旅游图片,广告媒体图片,新闻素材等。在对合成图片进行处理时,大多数情况下都是按照普通图片的处理方式进行处理。
现有技术中,需要人工使用photoshop等图像处理软件从大图(即合成图片)中裁剪出小图(即子图片)。根据传统的视觉分析算法得到视觉特征信息:图像边缘信息,图像轮廓信息,直线检测结果,多边形检测结果,SIFT关键点信息,色彩空间直方图信息等,根据视觉特征信息确定边缘信息,生成轮廓信息,确定多边形轮廓,根据多边形轮廓确定子图片。但是,目前存在以下缺点:(1)人工手动裁剪图片需要耗费大量的时间和人力资源,效率比较低,难以满足大批量裁剪的需求。(2)利用传统的人工设计的特征提取的方法,需要耗费大量时间和精力来设计和选取合适的特征,同时,由于传统特征表达能力有限,通常会存在较多误检和漏检,比如一张图片上面是蓝天,下面是大海,中间有条海平线,会误检成边缘线,因此,这类方法通常需要设计比较复杂的后处理过程,增加了算法的复杂度。
发明内容
针对上述情况,为克服现有技术的缺陷,本发明提供一种合成图片自动切割方法。
为了实现上述目的,本发明提供以下技术方案:
一种合成图片自动切割方法,包括以下步骤:
(1)输入待处理的合成图片;
(2)对合成图片进行预处理;
(3)深度学习模型对预处理后的合成图片进行处理,得到预测的掩码;
(4)根据预测得到的掩码,对合成图片进行后处理,得到切割后的子图片。
进一步地,深度学习模型构建过程,包括以下步骤:
(1)合成数据集;
(1.1)选取不用场景的图片,过滤掉其中本身是拼接的图片,
(1.2)随机选取几张图片,然后根据选取的图片数量随机选择拼接模版,
(1.3)根据选取的拼接模版,对各个图片大小进行调整,将调整后的图片进行拼接得到合成图片,同时记录各个子图片在合成图片中的边缘位置得到边缘掩码图,
(1.4)重复步骤(1.2)和(1.3)过程生成用于模型训练和测试的数据集,其中80%用做训练集,剩余20%用做测试集;
(2)对深度学习模型进行训练与部署;
(2.1)使用TensorFlow框架搭建网络架构和模型训练测试代码;
(2.2)使用上述合成的数据集进行模型训练和评估;
(2.3)将训练好的模型导出成模型服务器需要的格式;
(2.4)使用模型服务器部署步骤(2.3)中导出的模型。
进一步地,步骤(3)中,深度学习模型对合成图片进行处理的具体过程为:
(1)深度学习模型对输入的合成图片中的小图的边缘进行预测,图片边缘的像素位置预测值大,不是图片边缘的像素位置预测值小;
(2)得到图片的预测值后,根据已经取好的阈值,将大于等于阈值的点认为是边缘,小于阈值的点认为不是边缘。
进一步地,步骤(4)中后处理的具体过程为:
(1)统计每一行每一列的边缘点预测情况,将每一行均分成5段,每段统计预测是边缘的点的个数,按边缘点数量多少进行排序;
(2)如果第二多的一段点中,边缘点数占比超过90%,第二少的一段点中,边缘点数占比超过50%,最少的一段点中,边缘点数占比超过20%,那么这一行会被切割,否则就统计下一行;如果切割,大图会变成两张小图,接着将切好的两张小图继续统计每行每列的边缘点数,满足条件就切割,循环往复,一直到不能切割为止;
(3)最后选取长宽都满足要求的图片得到切割后的结果。
本发明的有益效果是:
(1)本发明能够对合成图片进行自动分隔拆分,不需要人工参与,能达到像素级精度,同时本发明的深度学习模型在训练时采用的数据集是自动合成的,无需耗时的人工像素级数据标注;相比于传统人工设计特征的方案,本发明能进行端到端的训练,网络自动从数据中学习相应的特征,无需耗费大量时间和精力来设计和选取合适的特征,算法鲁棒性更好,无需非常复杂的后处理过程。
(2)本发明方法能完全自动化地对拼接图片进行切割拆分,不需要人工参与,省时省力。
(3)本发明采用端到端的深度学习来进行图片拼接边缘的预测,省去了人工设计和选择的过程,极大地简化了后处理过程,从而使得整个方法更加简洁高效。
附图说明
图1是合成数据集图片示例。
图2是使用TensorFlow框架搭建网络结构示意图。
图3是合成图片自动切割方法的流程图(其中包括了深度学习模型构建过程)。
图4是拼接模版示意图。
具体实施方式
以下结合附图对本发明的技术方案做进一步详细说明,应当指出的是,具体实施方式只是对本发明的详细说明,不应视为对本发明的限定。
实施例1
一种合成图片自动切割方法,如图3所示,包括以下步骤:
(1)输入待处理的合成图片;
(2)对合成图片进行预处理,
在一些优选的方式中,预处理包括以下步骤:
(2.1)由于输入图片的尺寸不限,而处理大尺寸的图片需要更多的时间和更多的计算资源,对图片面积(即长宽像素值乘积)大于10万的图片,等比例缩小至面积等于10万;
(2.2)将图片的RGB三个通道的值分别减去(122.7,116.6,104.0),通过对每张图片减去对应通道的统计平均值,来消除公共部分,凸显个体图片之间的差异。经过预处理的图片输入模型中可以得到更准确的结果。
(3)深度学习模型对预处理后的合成图片进行处理,得到预测的掩码;
(4)根据预测得到的掩码,对图片进行后处理,得到切割拆分后的子图片。
在一些优选的方式中,深度学习模型构建过程,包括以下步骤:
(1)合成数据集;数据集合成的步骤包括以下步骤(1.1)-(1.4):
(1.1)选取大约10000张不用场景的图片,过滤掉其中本身是拼接的图片,
(1.2)随机选取几张图片,然后根据选取的图片数量随机选择拼接模版,本发明不对图片数据进行限定(即不对图片的数量与图片拼接模板形式进行限定),比如也可以设计6张或8张图片的拼接模版。任意张子图片的拼接模版都是可以的,拼接模板形式也可以是多种多样的。本实施例中,随机选取2-4张图片,根据选取的图片数量随机选择拼接模版,拼接模板的形式如图4所示。其他数量图片的拼接模版也是可以得到的,对模版进行简单修改即可。
(1.3)根据选取的拼接模版,对各个图片大小进行调整,将调整后的图片进行拼接得到合成的大图(合成的大图即合成图片,如图1(a)所示),同时记录各个子图片在拼接图片(拼接图片即合成图片)中的边缘位置得到边缘掩码图,如图1(b)所示,
(1.4)重复步骤(1.2)和(1.3)过程生成用于模型训练和测试的数据集,一共生成了100000张图片和对应的边缘掩码图,其中80000张用做训练集,剩余20000张用做测试集。
(2)对深度学习模型进行训练与部署,包括以下步骤:
(2.1)使用TensorFlow框架搭建网络架构(如图2所示);
(2.2)使用上述合成的数据集进行模型训练和评估;
具体地,模型训练和评估过程为:
(2.21)训练前,先初始化模型中的权重:将最后一层卷积层(即将5个score融合的卷积层)参数初始化为0.2,其余的卷积层都按高斯分布随机初始化。(其中高斯分布的均值为0,标准差为0.01),模型中所有的偏差参数都初始化为0。高斯分布的概率密度函数为
Figure BDA0002671802020000041
其中σ=0.01,μ=0。
(2.22)使用随机梯度下降法,初始学习率为1e-6,每迭代20万次,学习率缩小为原来的十分之一。总共迭代了100万次。
(2.23)每迭代训练完一轮训练集,用模型对测试集做测试,记录测试集的平均损失;测试集包含多张图片,每一张图片经过模型测试后得到一个损失值L,测试集中所有的图片的损失值的平均就是平均损失。损失函数使用多阶段二分类的平衡交叉熵损失函数值之和。
单个像素点i的损失值为:
Figure BDA0002671802020000051
其中
Figure BDA0002671802020000052
λ=1.1,
Figure BDA0002671802020000053
yi为像素点i的标签值(1表示是边缘点,0表示不是边缘点)即像素点i的真实值,Xi表示像素点i的模型预测值;Y+和Y-分别表示图片中边缘像素与非边缘像素的集合。总的损失函数为
Figure BDA0002671802020000054
Figure BDA0002671802020000055
为单个像素点i在阶段k的激活值,
Figure BDA0002671802020000056
为像素点i的融合层的激活值;|I|为图片中像素点的总个数,K为阶段总数5,W为模型的权重值,融合层由5个阶段的输出层合并后计算得到。
(2.24)训练完成后,选取测试集平均损失值最小时的模型作为最终的模型。
(2.3)将训练好的模型导出成模型服务器需要的格式;导出成saved_model格式;
(2.4)使用模型服务器部署步骤(2.3)中导出的模型,具体地,使用现有技术中存在的tf serving(即Tensorflow Serving)来部署。
在一些优选的方式中,对合成图片进行切割处理的具体过程为:
(1)通过RESTful API调用深度学习模型对合成图片中的小图(即子图片)的边缘进行预测,图片边缘的像素位置预测值大,不是图片边缘的像素位置预测值小。
(2)得到图片的预测值后,根据已经取好的阈值,将大于等于阈值0.4的点认为是边缘,小于阈值0.4的点认为不是边缘,得到预测的掩码;
阈值通过多次实验比较得到,阈值取0.4可以有效地将边缘像素与非边缘的像素区分开来。
(3)统计每一行每一列的预测情况,将每一行均分成5段,每段统计预测是边缘的点的个数,按边缘点的数量多少进行排序;
(4)如果第二多的一段点中,边缘点数占比超过90%,第二少的一段点中,边缘点数占比超过50%,最少的一段点中,边缘点数占比超过20%,(此处,90%、50%、20%均表示边缘点数占这一段总点数的比例)那么这一行会被切割,否则就统计下一行;如果切割,大图会变成两张小图,接着将切好的两张小图继续统计每行每列的边缘点数,满足上述条件就切割,循环往复,一直到不能切割为止。以上所述的第二多的一段点指的是:按照边缘点数量从多到小进行排序,排在第二的一段点;第二少的一段点指的是:按照边缘点数量从多到小进行排序,排在倒数第二的一段点;最少的一段点指的是:按照边缘点数量从多到小进行排序,排在倒数第一的一段点。
(5)最后选取长宽都满足要求的图片就是最终的结果。此处,长宽的限制要求可以根据具体的需要来确定,比如在一些实施方式中,可能要求结果图片长和宽都不少于300像素(由于预处理中会对面积较大的图片等比例缩小,这里的300指的是同比例放大后的结果)。在其他实施方式中,可能需要500像素以上。本实施例中,选取长度和宽度都大于300像素的图片作为最终的结果。
一种合成图片自动切割系统,可以应用于以上所述的方法,包括图片预处理模块、深度学习模型模块与后处理模块,图片预处理模块与深度学习模型模块连接,深度学习模型模块与后处理模块连接;图片预处理模块用于对输入的合成图片进行预处理,然后将预处理后的合成图片传输至深度学习模型模块,深度学习模型模块用于对预处理后的合成图片进行处理得到预测的掩码,并将预测的掩码数据信息传递给后处理模块;后处理模块能够根据预测得到的掩码数据,对合成图片进行后处理,得到切割后的子图片。图片预处理、后处理的具体过程如上所述,深度学习模型的构建过程如上所述,此处不再赘述。
本发明的各模块或者步骤可以用现有技术中存在的硬件、软件、固件或它们的组合来实现。本技术领域的普通技术人员可以理解实现上述实施例方法的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述程序可以存储于一种计算机可读存储介质中,存储介质可以是只读存储器,磁盘或光盘等。
显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。

Claims (4)

1.一种合成图片自动切割方法,其特征是,包括以下步骤:
(1)输入待处理的合成图片;
(2)对合成图片进行预处理;
(3)深度学习模型对预处理后的合成图片进行处理,得到预测的掩码;
(4)根据预测得到的掩码,对合成图片进行后处理,得到切割后的子图片。
2.根据权利要求1所述的一种合成图片自动切割方法,其特征是,步骤(2)中深度学习模型构建过程,包括以下步骤:
(1)合成数据集;
(1.1)选取不用场景的图片,过滤掉其中本身是拼接的图片,
(1.2)随机选取几张图片,然后根据选取的图片数量随机选择拼接模版,
(1.3)根据选取的拼接模版,对各个图片大小进行调整,将调整后的图片进行拼接得到合成图片,同时记录各个子图片在合成图片中的边缘位置得到边缘掩码图,
(1.4)重复步骤(1.2)和(1.3)过程生成用于模型训练和测试的数据集,其中80%用做训练集,剩余20%用做测试集;
(2)对深度学习模型进行训练与部署;
(2.1)使用TensorFlow框架搭建网络架构;
(2.2)使用上述合成的数据集进行模型训练和评估;
(2.3)将训练好的模型导出成模型服务器需要的格式;
(2.4)使用模型服务器部署步骤(2.3)中导出的模型。
3.根据权利要求1所述的一种合成图片自动切割方法,其特征是,步骤(3)中,深度学习模型对合成图片进行处理的具体过程为:
(1)深度学习模型对预处理后的合成图片中的小图的边缘进行预测,图片边缘的像素位置预测值大,不是图片边缘的像素位置预测值小;
(2)得到图片的预测值后,根据已经取好的阈值,将大于等于阈值的点认为是边缘,小于阈值的点认为不是边缘,得到预测的掩码。
4.根据权利要求1所述的一种合成图片自动切割方法,其特征是,步骤(4)中后处理的具体过程为:
(1)统计每一行每一列的边缘点预测情况,将每一行均分成5段,每段统计预测是边缘的点的个数,按边缘点数量多少进行排序;
(2)如果第二多的一段点中,边缘点数占比超过90%,第二少的一段点中,边缘点数占比超过50%,最少的一段点中,边缘点数占比超过20%,那么这一行会被切割,否则就统计下一行;如果切割,大图会变成两张小图,接着将切好的两张小图继续统计每行每列的边缘点数,满足上述条件就切割,循环往复,一直到不能切割为止;
(3)最后选取长宽都满足要求的图片得到切割后的结果。
CN202010935597.4A 2020-09-08 2020-09-08 一种合成图片自动切割方法 Active CN112116618B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010935597.4A CN112116618B (zh) 2020-09-08 2020-09-08 一种合成图片自动切割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010935597.4A CN112116618B (zh) 2020-09-08 2020-09-08 一种合成图片自动切割方法

Publications (2)

Publication Number Publication Date
CN112116618A true CN112116618A (zh) 2020-12-22
CN112116618B CN112116618B (zh) 2023-04-07

Family

ID=73802565

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010935597.4A Active CN112116618B (zh) 2020-09-08 2020-09-08 一种合成图片自动切割方法

Country Status (1)

Country Link
CN (1) CN112116618B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113518260A (zh) * 2021-09-14 2021-10-19 腾讯科技(深圳)有限公司 视频播放方法、装置、电子设备及计算机可读存储介质
WO2022134632A1 (zh) * 2020-12-23 2022-06-30 北京达佳互联信息技术有限公司 作品处理方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105678773A (zh) * 2016-01-12 2016-06-15 西北工业大学 一种低对比度图像分割方法
US20180084989A1 (en) * 2015-03-31 2018-03-29 Visunex Medical Systems Co. Ltd. An eye imaging apparatus with sequential illumination and a syntactic image analyzing method
CN111210452A (zh) * 2019-12-30 2020-05-29 西南交通大学 一种基于图割和均值偏移的证件照人像分割方法
CN111461968A (zh) * 2020-04-01 2020-07-28 北京字节跳动网络技术有限公司 图片处理方法、装置、电子设备和计算机可读介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180084989A1 (en) * 2015-03-31 2018-03-29 Visunex Medical Systems Co. Ltd. An eye imaging apparatus with sequential illumination and a syntactic image analyzing method
CN105678773A (zh) * 2016-01-12 2016-06-15 西北工业大学 一种低对比度图像分割方法
CN111210452A (zh) * 2019-12-30 2020-05-29 西南交通大学 一种基于图割和均值偏移的证件照人像分割方法
CN111461968A (zh) * 2020-04-01 2020-07-28 北京字节跳动网络技术有限公司 图片处理方法、装置、电子设备和计算机可读介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022134632A1 (zh) * 2020-12-23 2022-06-30 北京达佳互联信息技术有限公司 作品处理方法及装置
CN113518260A (zh) * 2021-09-14 2021-10-19 腾讯科技(深圳)有限公司 视频播放方法、装置、电子设备及计算机可读存储介质

Also Published As

Publication number Publication date
CN112116618B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
EP3737083B1 (en) Learning-based sampling for image matting
CN109614921B (zh) 一种基于对抗生成网络的半监督学习的细胞分割方法
CN107358262B (zh) 一种高分辨率图像的分类方法及分类装置
Xiao et al. Example‐Based Colourization Via Dense Encoding Pyramids
CN112116618B (zh) 一种合成图片自动切割方法
CN111444919A (zh) 一种自然场景中的任意形状文本检测方法
CN112949783A (zh) 一种基于改进U-Net神经网络的道路裂缝检测方法
CN112287941A (zh) 一种基于自动字符区域感知的车牌识别方法
CN108596240B (zh) 一种基于判别特征网络的图像语义分割方法
CN110610500A (zh) 基于动态语义特征的新闻视频自适应拆条方法
CN111062307A (zh) 一种基于Tiny-Darknet的场景识别分类方法
CN109523558A (zh) 一种人像分割方法及系统
CN112101359A (zh) 文本公式的定位方法、模型训练方法及相关装置
CN110866938A (zh) 一种全自动视频运动目标分割方法
CN114998337A (zh) 一种划痕检测方法、装置、设备及存储介质
CN114187558A (zh) 一种视频场景识别方法、装置、计算机设备及存储介质
CN112801911A (zh) 一种去除自然图像中文字类噪声的方法及装置、存储介质
CN112581480A (zh) 自动抠图方法、系统及其可读存储介质
CN112836694A (zh) 图像文字提取方法、装置、计算机设备及存储介质
CN111178275A (zh) 一种基于卷积神经网络的火灾检测方法
CN110555462A (zh) 基于卷积神经网络的无固定多字符验证码识别方法
CN115761223A (zh) 一种利用数据合成的遥感影像实例分割方法
CN113313700B (zh) 一种基于深度学习的x射线图像交互式分割方法
CN115278300A (zh) 视频处理方法、装置、电子设备、存储介质和程序产品
CN112667831B (zh) 素材存储方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant