CN109801345A - 一种基于神经网络的原画线稿辅助绘制方法和装置 - Google Patents
一种基于神经网络的原画线稿辅助绘制方法和装置 Download PDFInfo
- Publication number
- CN109801345A CN109801345A CN201811561269.1A CN201811561269A CN109801345A CN 109801345 A CN109801345 A CN 109801345A CN 201811561269 A CN201811561269 A CN 201811561269A CN 109801345 A CN109801345 A CN 109801345A
- Authority
- CN
- China
- Prior art keywords
- original
- neural network
- original text
- painting
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Image Analysis (AREA)
Abstract
一种基于神经网络的原画线稿辅助绘制方法,包括:获取多张原画线稿修正前后的涂鸦稿和正式稿,并标记正式稿各个细分区域的形状参数,形成原画线稿数据样本;使用Keras初始化原画神经网络模型,其中原画神经网络模型采用循环神经网络;导入原画线稿数据样本作为训练集,对原画神经网络模型进行监督学习;利用训练完毕的原画神经网络模型对输入的涂鸦稿进行自动修正。本申请还公开了相应的基于神经网络的原画线稿辅助绘制装置。本申请的有益效果为:利用神经网络对涂鸦稿进行辅助修正,从而减轻了绘制原画的正式稿的繁重工作,能够方便快捷地对原画进行制作和修改。
Description
技术领域
本发明涉及计算机学习领域,尤其涉及一种基于神经网络的原画线稿辅助绘制方法和装置。
背景技术
无论是电子游戏和动画等电子产品的制作,还是漫画和插页等的绘制,都需要大量的原画工作。例如,对于电子游戏开发,软件开发商都需要根据项目策划设计游戏角色、游戏场景、游戏道具的原画或游戏中主要角色立绘、各种表情的头像等等。这些原画设计,尤其是原画线稿,将成为后面电子游戏开发的重要参考,所以上述原画的绘制往往对画质和精细度有较高的要求,以方便其他美术人员能够基于原画,根据实际的电子游戏开发需要,补充绘制在不同状态环境下的游戏角色、游戏场景或游戏道具的细节。
然而,因为目前原画的绘制工作很大程度上依赖于美术人员的经验,并且这往往需要其花费大量的时间来绘制,所以这使得软件开发商或者外包设计公司花费较大的人力成本和时间来完成上述任务。同时,由于在电子游戏或者动画制作初期,各方需要对具体设计进行反复磋商和修改,而相关人员往往缺乏美术功底,只能就某个原始的艺术概念绘制相关的角色、道具和物品涂鸦稿;因此,如何将这些涂鸦稿快速地转化为相对正式的原画线稿,以方便快捷地在该原画线稿上由多方参与人员集思广益,成为缩短相关产品前期开发周期的关键。
发明内容
本申请的目的是解决现有技术的不足,提供一种基于神经网络的原画线稿辅助绘制方法和装置,能够获得对输入的涂鸦稿自动生成正式稿的技术效果。
为了实现上述目的,本申请采用以下的技术方案。
首先,本申请提出一种基于神经网络的原画线稿辅助绘制方法。该方法包括以下步骤:
S100)获取多张原画线稿修正前后的涂鸦稿和正式稿,并标记正式稿各个细分区域的形状参数,形成原画线稿数据样本;
S200)使用Keras初始化原画神经网络模型,其中原画神经网络模型采用循环神经网络;
S300)导入原画线稿数据样本作为训练集,对原画神经网络模型进行监督学习;
S400)利用训练完毕的原画神经网络模型对输入的涂鸦稿进行自动修正。
进一步地,在本申请的上述方法中,该步骤S100还包括以下子步骤:
S101)匹配多张原画线稿修正前后的涂鸦稿和正式稿,并对涂鸦稿和正式稿进行配准;
S102)基于涂鸦稿对正式稿进行划分形成初始区域;
S103)基于正式稿中的线条,对初始区域进行区域细分,形成细分区域;
S104)检测各细分区域内的角点和边缘,并将角点和边缘的位置和与该细分区域相邻的区域作为形状参数。
再进一步地,在本申请的上述方法中,该原画线稿数据样本包括SketchRNN数据集和QuickDraw数据集。
又进一步地,在本申请的上述方法中,原画数据样本根据原画的风格分类为多个子训练集,并基于该子训练集形成相应多个上色神经网络模型。
进一步地,在本申请的上述方法中,该步骤S200还包括以下子步骤:
S201)利用Keras建立并初始化循环神经网络,并采用Vanilla LSTM方式设置循环神经网络的LSTM单元;
S202)配置HperLSTM到循环神经网络模型以在训练期间更新原画神经网络模型中各分类器的权重。
再进一步地,在本申请的上述方法中,利用HperLSTM训练并监测原画神经网络模型中各分类器的参数到本地。
进一步地,在本申请的上述方法中,该步骤S400包括以下子步骤:
S401)将训练完毕的原画神经网络模型布置在网络服务器,并配置原画神经网络模型的数据入口;
S402)将涂鸦稿通过数据入口上传到原画神经网络模型以执行自动修正。
再进一步地,在本申请的上述方法中,该数据入口是网页的形式。
其次,本申请还公开了一种基于神经网络的原画线稿辅助绘制装置。该装置可以包括以下模块:获取模块,用于获取多张原画线稿修正前后的涂鸦稿和正式稿,并标记正式稿各个细分区域的形状参数,形成原画线稿数据样本;初始化模块,用于使用Keras初始化原画神经网络模型,其中原画神经网络模型采用循环神经网络;训练模块,用于导入原画线稿数据样本作为训练集,对原画神经网络模型进行监督学习;修正模块,用于利用训练完毕的原画神经网络模型对输入的涂鸦稿进行自动修正。
进一步地,在本申请的上述装置中,该获取模块可以包括以下子模块:匹配模块,用于匹配多张原画线稿修正前后的涂鸦稿和正式稿,并对涂鸦稿和正式稿进行配准;第一划分模块,用于基于涂鸦稿对原画进行划分形成初始区域;第二划分模块,用于基于正式稿中的线条,对初始区域进行区域细分,形成细分区域;标识模块,用于检测各细分区域内的角点和边缘,并将角点和边缘的位置和与该细分区域相邻的区域作为形状参数。
再进一步地,在本申请的上述装置中,该原画线稿数据样本包括SketchRNN数据集和QuickDraw数据集。
又进一步地,在本申请的上述装置中,原画数据样本根据原画的风格分类为多个子训练集,并基于该子训练集形成相应多个原画神经网络模型。
进一步地,在本申请的上述装置中,该初始化模块还可以包括以下子模块:建立模块,用于利用Keras建立并初始化循环神经网络,并采用Vanilla LSTM方式设置循环神经网络的LSTM单元;配置模块,用于配置HperLSTM到循环神经网络模型以在训练期间更新原画神经网络模型中各分类器的权重。
再进一步地,在本申请的上述装置中,利用HperLSTM训练并监测原画神经网络模型中各分类器的参数到本地。
进一步地,在本申请的上述装置中,该修正模块还可以包括以下子模块:布置模块,用于将训练完毕的原画神经网络模型布置在网络服务器,并配置原画神经网络模型的数据入口;上传模块,用于将涂鸦稿通过数据入口上传到原画神经网络模型以执行自动修正。
再进一步地,在本申请的上述装置中,该数据入口是网页的形式。
最后,本申请还提出一种计算机可读存储介质,其上存储有计算机指令。上述指令被处理器执行时,执行如下步骤:
S100)获取多张原画线稿修正前后的涂鸦稿和正式稿,并标记正式稿各个细分区域的形状参数,形成原画线稿数据样本;
S200)使用Keras初始化原画神经网络模型,其中原画神经网络模型采用循环神经网络;
S300)导入原画线稿数据样本作为训练集,对原画神经网络模型进行监督学习;
S400)利用训练完毕的原画神经网络模型对输入的涂鸦稿进行自动修正。
进一步地,在处理器执行上述指令时,该步骤S100还包括以下子步骤:
S101)匹配多张原画线稿修正前后的涂鸦稿和正式稿,并对涂鸦稿和正式稿进行配准;
S102)基于涂鸦稿对原画进行划分形成初始区域;
S103)基于正式稿中的线条,对初始区域进行区域细分,形成细分区域;
S104)检测各细分区域内的角点和边缘,并将角点和边缘的位置和与该细分区域相邻的区域作为形状参数。
再进一步地,在处理器执行上述指令时,该原画线稿数据样本包括SketchRNN数据集和QuickDraw数据集。
又进一步地,在处理器执行上述指令时,原画数据样本根据原画的风格分类为多个子训练集,并基于该子训练集形成相应多个原画神经网络模型。
进一步地,在处理器执行上述指令时,该步骤S200还包括以下子步骤:
S201)利用Keras建立并初始化循环神经网络,并采用Vanilla LSTM方式设置循环神经网络的LSTM单元;
S202)配置HperLSTM到循环神经网络模型以在训练期间更新原画神经网络模型中各分类器的权重。
再进一步地,在处理器执行上述指令时,利用HperLSTM训练并监测原画神经网络模型中各分类器的参数到本地。
进一步地,在处理器执行上述指令时,该步骤S400包括以下子步骤:
S401)将训练完毕的原画神经网络模型布置在网络服务器,并配置原画神经网络模型的数据入口;
S402)将涂鸦稿通过数据入口上传到原画神经网络模型以执行自动修正。
再进一步地,在处理器执行上述指令时,该数据入口是网页的形式。
本申请的有益效果为:利用神经网络对涂鸦稿进行辅助修正,从而减轻了正式稿的繁重绘制工作,能够方便快捷地对原画进行制作和修改。
附图说明
图1所示为本申请所公开的基于神经网络的原画线稿辅助绘制方法的流程图;
图2所示为在本申请的一个实施例中,形成原画线稿数据样本子方法的流程图;
图3所示为在本申请的另一个实施例中,原画神经网络模型初始化子方法的流程图;
图4所示为在本申请的又一个实施例中,训练原画神经网络模型子方法的流程图;
图5所示为在本申请的一个实施例中,原画神经网络模型对输入的原画线稿进行自动修正子方法的流程图;
图6为实现图5中子方法流程图的网络结构配置图;
图7所示为本申请所公开的基于神经网络的原画线稿辅助绘制装置的结构图。
具体实施方式
以下将结合实施例和附图对本申请的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本申请的目的、方案和效果。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
需要说明的是,如无特殊说明,当某一特征被称为“固定”、“连接”在另一个特征,它可以直接固定、连接在另一个特征上,也可以间接地固定、连接在另一个特征上。此外,本申请中所使用的上、下、左、右等描述仅仅是相对于附图中本申请各组成部分的相互位置关系来说的。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
此外,除非另有定义,本文所使用的所有的技术和科学术语与本技术领域的技术人员通常理解的含义相同。本文说明书中所使用的术语只是为了描述具体的实施例,而不是为了限制本申请。本文所使用的术语“和/或”包括一个或多个相关的所列项目的任意的组合。
应当理解,尽管在本申请中可能采用术语第一、第二、第三等来描述各种元件,但这些元件不应限于这些术语。这些术语仅用来将同一类型的元件彼此区分开。例如,在不脱离本申请范围的情况下,第一元件也可以被称为第二元件,类似地,第二元件也可以被称为第一元件。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”。
参照图1所示的方法流程图,在本申请的一个或多个实施例中,基于神经网络的原画线稿辅助绘制方法可以包括以下步骤:
S100)获取多张原画线稿修正前后的涂鸦稿和正式稿,并标记正式稿各个细分区域的形状参数,形成原画线稿数据样本;
S200)使用Keras初始化原画神经网络模型,其中原画神经网络模型采用循环神经网络;
S300)导入原画线稿数据样本作为训练集,对原画神经网络模型进行监督学习;
S400)利用训练完毕的原画神经网络模型对输入的涂鸦稿进行自动修正。
其中,涂鸦稿可以随手绘制的涂鸦,只勾勒了人物或物品的大体轮廓和骨架;相反,正式稿是美术人员在涂鸦稿的基础上通过丰富人物细节(例如衣服样式、面部表情和头发样式等细节要素)而形成的正式原画。通过Keras等高层神经网络工具,原画神经网络模型被快速地构建以模仿学习这些具体细节线条是如何基于涂鸦稿而绘制。具体地,开发人员能够利用Keras提供的工具,基于开源的TensorFlow系统建立原画神经网络模型。在本申请的一个或多个实施例中,在原画线稿数据样本中的涂鸦稿和正式稿是以SVG格式保存,以方便地向其插入数据;同时在缩放图像时,SVG格式能够使得线条的位置和形状保持不变。本领域技术人员能够基于相关工具及算法原理结构配置具体的原画神经网络模型。
参照图2所示的方法流程图,在本申请的一个或多个实施例中,该步骤S100包括以下子步骤:
S101)匹配多张原画线稿修正前后的涂鸦稿和正式稿,并对涂鸦稿和正式稿进行配准;
S102)基于涂鸦稿对原画进行划分形成初始区域;
S103)基于正式稿中的线条,对初始区域进行区域细分,形成细分区域;
S104)检测各细分区域内的角点和边缘,并将角点和边缘的位置和与该细分区域相邻的区域作为形状参数。
具体地,作为用于训练原画神经网络模型的原画线稿数据样本,涂鸦稿和原画上色稿将先进行配准,以在后继子步骤中准确地确定各个细分区域与涂鸦稿中线条的相对位置。然后,初始区域将基于涂鸦稿上的线条进行划分。初始区域的划分方式可以采用已有的基于边缘(例如采用涂鸦稿上的线条作为边缘)的图像分割算法,并将分割后的初始区域叠加到正式稿,以确定初始区域在正式稿上的对应区域。然后,可以基于正式稿中的线条,对初始区域进行区域细分,形成细分区域。具体地,细分区域可以根据正式稿在初始区域内线条的分布密集程度和线条长度等信息进行划分。本领域技术人员可以根据具体情况采用恰当的算法确定上述各个细分区域,本申请对此不予限定。最后,对于分割所形成的细分区域,检测各细分区域内的角点和边缘,并将角点和边缘的位置、以及与该细分区域相邻的区域作为形状参数,以文件的形式保存。此外,本领域技术人员应理解到,附图中的显示元件的数量和形状仅作为示例性的参考,不作为对本申请的限制。
进一步地,在本申请的上述一个或多个实施例中,为了扩大原画线稿数据样本,可以采用包括SketchRNN数据集和QuickDraw数据集在内等已经标记一定信息的开源涂鸦稿。由于上述涂鸦稿的数据集所保存的数据庞大,而且经人工标记,从而能够提高原画线稿数据样本中标记信息的准确度和训练集本身的广度。
再进一步地,在本申请的上述一个或多个实施例中,对于不同风格需求的正式稿,为了提高上色神经网络模型的适用性,原画线稿数据样本将根据正式稿的艺术风格分类为多个子训练集,并基于该子训练集形成相应多个原画神经网络模型。此时,训练所得的原画神经网络模型将分别对应于不同风格的正式稿。使用时,待绘制的正式稿将被指定相应的艺术风格,从而能够更有针对性地自动绘制。
参照图3所示的子方法流程图,在本申请的一个或多个实施例中,该步骤S200还包括以下子步骤:
S201)利用Keras建立并初始化循环神经网络,并采用Vanilla LSTM方式设置循环神经网络的LSTM单元;
S202)配置HperLSTM到循环神经网络模型以在训练期间更新原画神经网络模型中各分类器的权重。
具体地,使用Keras建立并初始化循环神经网络,可以利用Kersa自身提供的工具自动保存各个分类器的权重以方便快捷的地进行迭代训练。具体地,原画神经网络模型具体网络结构可以采用LSTM(Long Short Term Memory)这种改进的循环神经网络的方式构建,并以Vanilla LSTM方式以规范每个LSTM单元。同时,配置HperLSTM到循环神经网络模型,使得训练期间能够更新原画神经网络模型中各分类器的权重。
进一步地,参照图4所示的子方法流程图,在本申请的一个或多个实施例中,该步骤S300可以利用HperLSTM训练并监测原画神经网络模型中各分类器的参数。具体地,作为一个用于LSTM的HyperNetwork,HperLSTM使得能够在各个分类器之间共享权重。因此,所建立的原画神经网络模型能在训练期间采用介于卷积神经网络和循环神经网络的方式更新各个分类器的权重,从而能在分类器的复杂程度和模型的效果和灵活性之间做出比较不错的平衡。
由于电子游戏或动画制作项目中,相应的参与人员(例如软件开发商和外包设计公司内的美术人员)地理位置可能相隔较远,为了方便项目人员能够方便地修改原画,参照图5所示的子方法流程图,在本申请的一个或多个实施例中,该步骤S400包括以下子步骤:
S401)将训练完毕的原画神经网络模型布置在网络服务器,并配置原画神经网络模型的数据入口;
S402)将涂鸦稿通过数据入口上传到原画神经网络模型以执行自动修正。
进一步地,该数据入口可以是网页的形式。参照图6所示的网络架构图,此时,原画神经网络模型被布置在应用程序服务器上,并可以通过所提供相应的网页地址,由相关人员以各种形式的浏览终端访问(例如PC端或者智能移动端),从而将单张涂鸦稿在网页中上传至相应的网络服务器中,并由网络服务器将绘制后的正式稿通过网络返回。
参照图7所示的模块结构图,在本申请的一个或多个实施例中,基于神经网络的原画线稿辅助绘制可以包括以下模块:获取模块,用于获取多张原画线稿修正前后的涂鸦稿和正式稿,并标记正式稿各个细分区域的形状参数,形成原画线稿数据样本;初始化模块,用于使用Keras初始化原画神经网络模型,其中原画神经网络模型采用循环神经网络;训练模块,用于导入原画线稿数据样本作为训练集,对原画神经网络模型进行监督学习;修正模块,用于利用训练完毕的原画神经网络模型对输入的涂鸦稿进行自动修正。通过Keras等高层神经网络工具,原画神经网络模型被快速地构建以模仿学习这些具体细节线条是如何基于涂鸦稿而绘制。具体地,开发人员能够利用Keras提供的工具,基于开源的TensorFlow系统建立原画神经网络模型。在本申请的一个或多个实施例中,在原画线稿数据样本中的涂鸦稿和正式稿是以SVG格式保存,以方便地向其插入数据;同时在缩放图像时,SVG格式能够使得线条的位置和形状保持不变。本领域技术人员能够基于相关工具及算法原理结构配置具体的原画神经网络模型。
在本申请的一个或多个实施例中,该获取模块可以包括以下子模块:匹配模块,用于匹配多张原画线稿修正前后的涂鸦稿和正式稿,并对涂鸦稿和正式稿进行配准;第一划分模块,用于基于涂鸦稿对原画进行划分形成初始区域;第二划分模块,用于基于正式稿中的线条,对初始区域进行区域细分,形成细分区域;标识模块,用于检测各细分区域内的角点和边缘,并将角点和边缘的位置和与该细分区域相邻的区域作为形状参数。具体地,作为用于训练原画神经网络模型的原画线稿数据样本,涂鸦稿和原画上色稿将先进行配准,以在后继子步骤中准确地确定各个细分区域与涂鸦稿中线条的相对位置。然后,初始区域将基于涂鸦稿上的线条进行划分。初始区域的划分方式可以采用已有的基于边缘(例如采用涂鸦稿上的线条作为边缘)的图像分割算法,并将分割后的初始区域叠加到正式稿,以确定初始区域在正式稿上的对应区域。然后,可以基于正式稿中的线条,对初始区域进行区域细分,形成细分区域。具体地,细分区域可以根据正式稿在初始区域内线条的分布密集程度和线条长度等信息进行划分。本领域技术人员可以根据具体情况采用恰当的算法确定上述各个细分区域,本申请对此不予限定。最后,对于分割所形成的细分区域,检测各细分区域内的角点和边缘,并将角点和边缘的位置、以及与该细分区域相邻的区域作为形状参数,以文件的形式保存。此外,本领域技术人员应理解到,附图中的显示元件的数量和形状仅作为示例性的参考,不作为对本申请的限制。
进一步地,在本申请的上述一个或多个实施例中,为了扩大原画线稿数据样本,可以采用包括SketchRNN数据集和QuickDraw数据集在内等已经标记一定信息的开源涂鸦稿。由于上述涂鸦稿的数据集所保存的数据庞大,而且经人工标记,从而能够提高原画线稿数据样本中标记信息的准确度和训练集本身的广度。
再进一步地,在本申请的上述一个或多个实施例中,对于不同风格需求的正式稿,为了提高上色神经网络模型的适用性,原画线稿数据样本将根据正式稿的艺术风格分类为多个子训练集,并基于该子训练集形成相应多个原画神经网络模型。此时,训练所得的原画神经网络模型将分别对应于不同风格的正式稿。使用时,待绘制的正式稿将被指定相应的艺术风格,从而能够更有针对性地自动绘制。
在本申请的一个或多个实施例中,该初始化模块还可以包括以下子模块:建立模块,用于利用Keras建立并初始化循环神经网络,并采用Vanilla LSTM方式设置循环神经网络的LSTM单元;配置模块,用于配置HperLSTM到循环神经网络模型以联网训练原画神经网络模型。具体地,使用Keras建立并初始化循环神经网络,可以利用Kersa自身提供的工具自动保存各个分类器的权重以方便快捷的地进行迭代训练。具体地,原画神经网络模型具体网络结构可以采用LSTM(Long Short Term Memory)这种改进的循环神经网络的方式构建,并以Vanilla LSTM方式以规范每个LSTM单元。同时,配置HperLSTM到循环神经网络模型,使得训练期间能够更新原画神经网络模型中各分类器的权重。
进一步地,在本申请的一个或多个实施例中,该训练模块可以利用HperLSTM训练并监测原画神经网络模型中各分类器的参数。具体地,作为一个用于LSTM的HyperNetwork,HperLSTM使得能够在各个分类器之间共享权重。因此,所建立的原画神经网络模型能在训练期间采用介于卷积神经网络和循环神经网络的方式更新各个分类器的权重,从而能在分类器的复杂程度和模型的效果和灵活性之间做出比较不错的平衡。
由于电子游戏或动画制作项目中,相应的参与人员(例如软件开发商和外包设计公司内的美术人员)地理位置可能相隔较远,为了方便项目人员能够方便地修改原画,参照图5所示的子方法流程图,在本申请的一个或多个实施例中,该修正模块还可以包括以下子模块:布置模块,用于将训练完毕的原画神经网络模型布置在网络服务器,并配置原画神经网络模型的数据入口;上传模块,用于将涂鸦稿通过数据入口上传到原画神经网络模型以执行自动修正。进一步地,该数据入口可以是网页的形式。参照图6所示的网络架构图,此时,原画神经网络模型被布置在应用程序服务器上,并可以通过所提供相应的网页地址,由相关人员以各种形式的浏览终端访问(例如PC端或者智能移动端),从而将单张涂鸦稿在网页中上传至相应的网络服务器中,并由网络服务器将绘制后的正式稿通过网络返回。
应当认识到,本申请的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。该方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
进一步地,该方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本申请的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文该步骤的指令或程序时,本文所述的申请包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本申请所述的方法和技术编程时,本申请还包括计算机本身。
计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本申请优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
因此,应以说明性意义而不是限制性意义来理解本说明书和附图。然而,将明显的是:在不脱离如权利要求书中阐述的本申请的更宽广精神和范围的情况下,可以对本申请做出各种修改和改变。
其他变型在本申请的精神内。因此,尽管所公开的技术可容许各种修改和替代构造,但在附图中已示出并且在上文中详细描述所示的其某些实施例。然而,应当理解,并不意图将本申请局限于所公开的一种或多种具体形式;相反,其意图涵盖如所附权利要求书中所限定落在本申请的精神和范围内的所有修改、替代构造和等效物。
Claims (10)
1.一种基于神经网络的原画线稿辅助绘制方法,其特征在于,包括以下步骤:
S100)获取多张原画线稿修正前后的涂鸦稿和正式稿,并标记正式稿各个细分区域的形状参数,形成原画线稿数据样本;
S200)使用Keras初始化原画神经网络模型,其中原画神经网络模型采用循环神经网络;
S300)导入原画线稿数据样本作为训练集,对原画神经网络模型进行监督学习;
S400)利用训练完毕的原画神经网络模型对输入的涂鸦稿进行自动修正。
2.根据权利要求1所述的方法,其特征在于,所述步骤S100包括以下子步骤:
S101)匹配多张原画线稿修正前后的涂鸦稿和正式稿,并对涂鸦稿和正式稿进行配准;
S102)基于涂鸦稿对原画进行划分形成初始区域;
S103)基于正式稿中的线条,对初始区域进行区域细分,形成细分区域;
S104)检测各细分区域内的角点和边缘,并将角点和边缘的位置和与该细分区域相邻的区域作为形状参数。
3.根据权利要求1或2所述的方法,其特征在于,所述原画线稿数据样本包括SketchRNN数据集和QuickDraw数据集。
4.根据权利要求3所述的方法,其特征在于,原画数据样本根据原画的风格分类为多个子训练集,并基于所述子训练集形成相应多个原画神经网络模型。
5.根据权利要求1所述的方法,其特征在于,所述步骤S200还包括以下子步骤:
S201)利用Keras建立并初始化循环神经网络,并采用Vanilla LSTM方式设置循环神经网络的LSTM单元;
S202)配置HperLSTM到循环神经网络模型以在训练期间更新原画神经网络模型中各分类器的权重。
6.根据权利要求5所述的方法,其特征在于,利用HperLSTM训练并监测原画神经网络模型中各分类器的参数到本地。
7.根据权利要求1所述的方法,其特征在于,所述步骤S400包括以下子步骤:
S401)将训练完毕的原画神经网络模型布置在网络服务器,并配置原画神经网络模型的数据入口;
S402)将涂鸦稿通过数据入口上传到原画神经网络模型以执行自动修正。
8.根据权利要求7所述的方法,其特征在于,所述数据入口是网页的形式。
9.一种基于神经网络的原画线稿辅助绘制装置,其特征在于,包括以下模块:
获取模块,用于获取多张原画线稿修正前后的涂鸦稿和正式稿,并标记正式稿各个细分区域的形状参数,形成原画线稿数据样本;
初始化模块,用于使用Keras初始化原画神经网络模型,其中原画神经网络模型采用循环神经网络;
训练模块,用于导入原画线稿数据样本作为训练集,对原画神经网络模型进行监督学习;
修正模块,用于利用训练完毕的原画神经网络模型对输入的涂鸦稿进行自动修正。
10.一种计算机可读存储介质,其上存储有计算机指令,其特征在于该指令被处理器执行时实现如权利要求1至8中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811561269.1A CN109801345B (zh) | 2018-12-20 | 2018-12-20 | 一种基于神经网络的原画线稿辅助绘制方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811561269.1A CN109801345B (zh) | 2018-12-20 | 2018-12-20 | 一种基于神经网络的原画线稿辅助绘制方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109801345A true CN109801345A (zh) | 2019-05-24 |
CN109801345B CN109801345B (zh) | 2023-05-26 |
Family
ID=66557195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811561269.1A Active CN109801345B (zh) | 2018-12-20 | 2018-12-20 | 一种基于神经网络的原画线稿辅助绘制方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109801345B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112837396A (zh) * | 2021-01-29 | 2021-05-25 | 深圳市天耀创想网络科技有限公司 | 一种基于机器学习的线稿生成方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106055579A (zh) * | 2016-05-20 | 2016-10-26 | 上海交通大学 | 基于人工神经网络的车辆性能数据清洗系统及其方法 |
US20180150947A1 (en) * | 2016-11-28 | 2018-05-31 | Adobe Systems Incorporated | Facilitating sketch to painting transformations |
CN108829683A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 混合标注学习神经网络模型及其训练方法、装置 |
-
2018
- 2018-12-20 CN CN201811561269.1A patent/CN109801345B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106055579A (zh) * | 2016-05-20 | 2016-10-26 | 上海交通大学 | 基于人工神经网络的车辆性能数据清洗系统及其方法 |
US20180150947A1 (en) * | 2016-11-28 | 2018-05-31 | Adobe Systems Incorporated | Facilitating sketch to painting transformations |
CN108829683A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 混合标注学习神经网络模型及其训练方法、装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112837396A (zh) * | 2021-01-29 | 2021-05-25 | 深圳市天耀创想网络科技有限公司 | 一种基于机器学习的线稿生成方法及装置 |
CN112837396B (zh) * | 2021-01-29 | 2024-05-07 | 深圳市天耀创想网络科技有限公司 | 一种基于机器学习的线稿生成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109801345B (zh) | 2023-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6763925B2 (ja) | 建築物レンダリング及びビルディングインフォメーションモデリングデータの機械学習システム | |
CN107833183B (zh) | 一种基于多任务深度神经网络的卫星图像同时超分辨和着色的方法 | |
CN111950638B (zh) | 基于模型蒸馏的图像分类方法、装置和电子设备 | |
CN105912500B (zh) | 机器学习模型生成方法和装置 | |
US20190287280A1 (en) | Vector graphics based live sketching methods and systems | |
CN109636905A (zh) | 基于深度卷积神经网络的环境语义建图方法 | |
CN110020682A (zh) | 一种基于小样本学习的注意力机制关系对比网络模型方法 | |
CN110310222A (zh) | 一种图像风格迁移方法、装置、电子设备及存储介质 | |
CN111199531A (zh) | 基于泊松图像融合及图像风格化的交互式数据扩展方法 | |
CN106485773B (zh) | 一种用于生成动画数据的方法和装置 | |
CN107330750A (zh) | 一种推荐产品配图方法及装置,电子设备 | |
CN108038821A (zh) | 一种基于生成式对抗网络的图像风格迁移方法 | |
CN109816758B (zh) | 一种基于神经网络的二维角色动画生成方法和装置 | |
CN108052984A (zh) | 计数方法及装置 | |
CN110163208B (zh) | 一种基于深度学习的场景文字检测方法和系统 | |
CN106778820A (zh) | 识别模型确定方法及装置 | |
CN109801349A (zh) | 一种声音驱动的三维动画角色实时表情生成方法和系统 | |
CN110097616A (zh) | 一种联合绘画方法、装置、终端设备及可读存储介质 | |
CN108764149B (zh) | 一种针对班级学生人脸模型的训练方法 | |
CN107578367A (zh) | 一种风格化图像的生成方法及装置 | |
Tang et al. | Animated construction of Chinese brush paintings | |
CN109801346B (zh) | 一种基于神经网络的原画辅助上色方法和装置 | |
CN109816770A (zh) | 使用神经网络的油画笔划模拟 | |
CN104077408B (zh) | 大规模跨媒体数据分布式半监督内容识别分类方法及装置 | |
CN109801345A (zh) | 一种基于神经网络的原画线稿辅助绘制方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |