CN113841150B - 学习模型生成方法、物品评价决定和输出方法、存储介质 - Google Patents

学习模型生成方法、物品评价决定和输出方法、存储介质 Download PDF

Info

Publication number
CN113841150B
CN113841150B CN202080036528.8A CN202080036528A CN113841150B CN 113841150 B CN113841150 B CN 113841150B CN 202080036528 A CN202080036528 A CN 202080036528A CN 113841150 B CN113841150 B CN 113841150B
Authority
CN
China
Prior art keywords
information
substrate
agent
treating agent
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202080036528.8A
Other languages
English (en)
Other versions
CN113841150A (zh
Inventor
川部留美
高桑达哉
增田晴久
仓本圭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Original Assignee
Daikin Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd filed Critical Daikin Industries Ltd
Publication of CN113841150A publication Critical patent/CN113841150A/zh
Application granted granted Critical
Publication of CN113841150B publication Critical patent/CN113841150B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C60/00Computational materials science, i.e. ICT specially adapted for investigating the physical or chemical properties of materials or phenomena associated with their design, synthesis, processing, characterisation or utilisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/30Prediction of properties of chemical compounds, compositions or mixtures
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/70Machine learning, data mining or chemometrics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

为了发现拨水剂等的优选组合,必须进行多次试验和研究,时间上和成本上的负担大。学习模型生成方法用于生成学习模型,该学习模型能够使用计算机来决定在基材上固定有表面处理剂的物品的评价。学习模型生成方法包括获取步骤(S12)、学习步骤(S15)和生成步骤(S16)。在获取步骤(S12)中,计算机获取示教数据。示教数据包括基材信息、处理剂信息和物品的评价。在学习步骤(S15)中,计算机基于在获取步骤(S12)中获取的多个示教数据来进行学习。在生成步骤(S16)中,计算机基于在学习步骤(S15)中学习的结果来生成学习模型。物品是使表面处理剂固定在基材上而得到的。学习模型能够将输入信息作为输入,将评价作为输出。输入信息是与示教数据不同的未知的信息。输入信息是至少包括基材信息和处理剂信息的信息。

Description

学习模型生成方法、物品评价决定和输出方法、存储介质
技术领域
本发明涉及学习模型生成方法、程序、存储有程序的存储介质、和学习完成模型。
背景技术
专利文献1(日本特表2018-535281号公报)公开了优选的拨水剂的组合。
专利文献2(日本特开1999-511949号公报)公开了最优化分析装置和存储有最优化分析程序的存储介质。
发明内容
发明要解决的技术问题
为了发现拨水剂等的优选组合,必须进行多次试验和评价等,时间上和成本上的负担大。
用于解决技术问题的手段
第1方面的学习模型生成方法,用于生成学习模型,该学习模型能够使用计算机来决定在基材上固定有表面处理剂的物品的评价。学习模型生成方法包括获取步骤、学习步骤和生成步骤。在获取步骤中,计算机获取示教数据。示教数据包括基材信息、处理剂信息和物品的评价。基材信息是基材的信息。处理剂信息是表面处理剂的信息。在学习步骤中,计算机基于在获取步骤中获取的多个示教数据来进行学习。在生成步骤中,计算机基于在学习步骤中学习的结果来生成学习模型。物品是使表面处理剂固定在基材上而得到的。学习模型能够将输入信息作为输入,将评价作为输出。输入信息是与示教数据不同的未知的信息。输入信息是至少包括基材信息和处理剂信息的信息。
由此生成的学习模型能够使用计算机进行评价,能够削减进行评价所需要的大量的时间和成本。
第2方面的学习模型生成方法包括获取步骤、学习步骤和生成步骤。在获取步骤中,计算机获取示教数据。示教数据包括基材信息、处理剂信息和评价。基材信息是基材的信息。处理剂信息是表面处理剂的信息。评价是在基材上固定有表面处理剂的物品的评价。在学习步骤中,计算机基于在获取步骤中获取的多个示教数据来进行学习。在生成步骤中,计算机基于在学习步骤中学习的结果来生成学习模型。物品是使表面处理剂固定在基材上而得到的。学习模型能够将输入信息作为输入,将评价作为输出。输入信息是与示教数据不同的未知的信息。输入信息是至少包括基材信息和评价的信息的信息。
第3方面的学习模型生成方法,在第1方面或第2方面的学习模型生成方法中,在学习步骤中,通过回归分析和/或将多个回归分析组合而成的集成学习来进行学习。
第4方面的程序是计算机使用学习模型来决定固定有表面处理剂的基材的评价的程序。程序包括输入步骤、决定步骤和输出步骤。在输入步骤中,对计算机输入输入信息。在决定步骤中,计算机决定评价。在输出步骤中,输出在决定步骤中决定的评价。物品是使表面处理剂固定在基材上而得到的。学习模型能够将作为基材的信息的基材信息、作为要固定在基材上的表面处理剂的信息的处理剂信息、和评价作为示教数据进行学习。输入信息是包括基材信息和处理剂信息的、与示教数据不同的未知的信息。
第5方面的程序是计算机使用学习模型来决定要固定在基材上的最佳的处理剂信息的程序。程序包括输入步骤、决定步骤和输出步骤。在输入步骤中,对计算机输入输入信息。在决定步骤中,计算机决定最佳的处理剂信息。在输出步骤中,计算机输出在决定步骤中决定的最佳的处理剂信息。学习模型能够将基材信息、处理剂信息和评价作为示教数据进行学习。基材信息是基材的信息。处理剂信息是表面处理剂的信息。评价是在基材上固定有表面处理剂的物品的评价。处理剂信息是要固定在基材上的表面处理剂的信息。输入信息是与示教数据不同的未知的信息。输入信息是至少包括基材信息和评价的信息的信息。物品是使表面处理剂固定在基材上而得到的。
第6方面的程序,在第4方面或第5方面的程序中,评价是拨水信息、拨油信息、防污信息和加工稳定信息中的任意者。拨水信息是关于物品的拨水性的信息。拨油信息是关于物品的拨油性的信息。防污信息是关于物品的防污性的信息。加工稳定信息是关于物品的加工稳定性的信息。
第7方面的程序,在第4方面至第6方面中的任一方面的程序中,基材是纤维制品。
第8方面的程序,在第7方面的程序中,基材信息至少包括所述纤维制品的种类和染色剂的种类的信息。处理剂信息至少包括构成所述表面处理剂中包含的拨剂聚合物的单体的种类、聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类和表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
第9方面的程序,在第8方面的程序中,示教数据包括加工基材时的环境信息。环境信息包括对基材进行加工时的气温、湿度、固化温度、加工速度中的任意个信息。基材信息还包括纤维制品的颜色、编织方法、单位面积重量、纱线的粗细、ζ电位中的任意个信息。处理剂信息还包括要添加到表面处理剂中的添加剂的种类和含量、表面处理剂的pH、ζ电位中的任意个项目的信息。
第10方面的存储介质是存储有第4方面至第9方面中的任一方面的程序的存储介质。
第11方面的学习完成模型是用于使计算机发挥功能的学习完成模型。学习完成模型能够对被输入到神经网络的输入层的基材信息和处理剂信息进行基于神经网络的权重系数的运算。学习完成模型能够基于运算的结果,从神经网络的输出层输出基材的拨水信息或拨油信息。基材信息是基材的信息。处理剂信息是表面处理剂的信息。权重系数是通过至少将基材信息、处理剂信息和评价作为示教数据进行学习而得到的。评价是在基材上固定有表面处理剂的物品的评价。物品是使表面处理剂固定在基材上而得到的。
第12方面的学习完成模型是用于使计算机发挥功能的学习完成模型。学习完成模型能够对被输入到神经网络的输入层的基材信息和评价的信息进行基于神经网络的权重系数的运算。学习完成模型能够基于运算的结果,从神经网络的输出层输出最适合于基材的处理剂信息。基材信息是基材的信息。权重系数是通过至少将基材信息、处理剂信息和评价作为示教数据进行学习而得到的。处理剂信息是要固定在基材上的表面处理剂的信息。评价是在基材上固定有表面处理剂的物品的评价。物品是使表面处理剂固定在基材上而得到的。
附图说明
图1是表示学习模型生成装置的结构的图。
图2是表示用户装置的结构的图。
图3是决策树的一个例子。
图4是由决策树分割的特征空间的一个例子。
图5是SVM的一个例子。
图6是特征空间的一个例子。
图7是神经网络的神经元的模型的一个例子。
图8是神经网络的一个例子。
图9是示教数据的一个例子。
图10是表示学习模型生成装置的动作的流程图。
图11是表示用户装置的动作的流程图。
具体实施方式
下面,对本发明的一个实施方式的学习模型进行说明。下述的实施方式是具体例,并不是对技术范围进行限定,可以在不脱离主旨的范围内适当变更。
(1)概要
图1是表示学习模型生成装置的结构的图。图2是表示用户装置的结构的图。
学习模型能够通过1个以上的作为计算机的学习模型生成装置10获取示教数据进行学习来生成。所生成的学习模型,作为所谓的学习完成模型,可被安装在通用的计算机或终端中,或者作为程序等被下载,或者以存储在存储介质中的状态被发布,在1个以上的作为计算机的用户装置20中被使用。
学习模型能够对与示教数据不同的未知的信息输出正解。而且,学习模型能够进行更新,以使得能够对所输入的各种数据输出正解。
(2)学习模型生成装置10的结构
学习模型生成装置10能够生成在后述的用户装置20中使用的学习模型。
学习模型生成装置10是具有所谓的计算机的功能的装置。学习模型生成装置10可以包括NIC等通信接口、DMA控制器,能够经由网络与用户装置20等进行通信。图1所示的学习模型生成装置10图示为1台装置,但是优选学习模型生成装置10与云计算对应。因此,学习模型生成装置10的硬件结构不需要收纳在1个壳体中,或者作为一个装置设置。例如,可以通过与负载相应地动态地连接/切断硬件的学习模型生成装置10的资源而构成。
学习模型生成装置10具有控制部11和存储部14。
(2-1)控制部11
控制部11例如是CPU,用于进行学习模型生成装置10整体的控制。控制部11能够使后述的各功能部适当地发挥功能,执行预先存储在存储部14中的学习模型生成程序15。控制部11具有获取部12和学习部13等功能部。
控制部11中的获取部12用于获取对学习模型生成装置10输入的示教数据,并将所获取的示教数据保存到在存储部14中构建的数据库16中。示教数据可以是由使用学习模型生成装置10的人直接输入到学习模型生成装置10,也可以是经由网络从其它装置等获取。获取部12获取示教数据的方法没有特别限定。示教数据是用于生成能够实现学习目的的学习模型的信息。在此,学习目的是输出在基材上固定有表面处理剂的物品的评价、和输出要固定在基材上的最佳的处理剂信息中的任意者。详细情况将在后面进行说明。
学习部13用于从存储在存储部14中的示教数据中提取学习数据集,自动地进行机器学习。学习数据集是已知对于输入的正解的数据的集合。从示教数据提取的学习数据集,根据学习目的而不同。通过学习部13进行学习,能够生成学习模型。
(2-2)机器学习
学习部13进行的机器学习的方法,只要是使用学习数据集的有监督学习就没有特别限定。作为在有监督学习中使用的模型或算法,可举出回归分析、决策树、支持向量机、神经网络、集成学习、随机森林等。
回归分析例如是线性回归分析、多元回归分析、逻辑(Logistic)回归分析。回归分析是使用最小二乘法等在输入数据(说明变量)与学习数据(目标变量)之间应用模型的方法。说明变量的维度在线性回归分析中为1,在多元回归分析中为2以上。在逻辑回归分析中,使用逻辑函数(S型函数(Sigmoid function))作为模型。
决策树是用于将多个判别器组合来生成复杂的判别边界的模型。关于决策树的详细情况将在后面进行说明。
支持向量机是用于生成2类线性判别函数的算法。关于支持向量机的详细情况将在后面进行说明。
神经网络是对通过突触将人的脑神经系统的神经元结合而形成的网络进行模型化而得到的。狭义而言,神经网络是指使用误差反向传播法的多层感知器。作为代表性的神经网络,可列举卷积神经网络(CNN)、循环神经网络(RNN)。CNN是没有进行全结合(结合稀疏)的顺传播型神经网络的一种。关于神经网络的详细情况将在后面进行说明。
集成学习是将多个模型组合来提高判别性能的方法。集成学习所使用的方法例如为自助聚合(Bagging)、提升法(Boosting)、随机森林。自助聚合是使用学习数据的自助样本(Bootstrap Sample)来学习多个模型,通过基于多个模型的多数表决来决定新的输入数据的评价的方法。提升法是根据自助聚合的学习结果对学习数据附加权重,使被错误地判别的学习数据比被正确地判别的学习数据更集中地学习的方法。随机森林是在使用决策树作为模型的情况下,生成由相关性低的多个决策树构成的决策树组(随机森林)的方法。关于随机森林的详细情况将在后面进行说明。
(2-2-1)决策树
决策树是指用于将多个判别器组合而得到复杂的判别边界(非线性判别函数等)的模型。判别器例如是关于某个特征轴的值与阈值的大小关系的规则。作为根据学习数据构成决策树的方法,例如有反复求取将特征空间一分为二的规则(判别器)的分治法。图3是通过分治法构成的决策树的一个例子。图4表示由图3的决策树分割的特征空间。在图4中,学习数据用白圈或黑圈表示,通过图3所示的决策树,各学习数据被分类为白圈的类或黑圈的类。在图3中,表示出了带有1到11的编号的节点、和将节点之间连结并带有“是”或“否”的标签的链路。在图3中,末端节点(叶节点)用方形表示,非末端节点(根节点和内部节点)用圆圈表示。末端节点是带有6到11的编号的节点,非末端节点是带有1到5的编号的节点。在各末端节点中表示出了表示学习数据的白圈或黑圈。在各非末端节点带有判别器。判别器是用于判断特征轴x1、x2的值与阈值a~e的大小关系的规则。链路上带有的标签表示判别器的判断结果。在图4中,判别器用虚线表示,在由判别器分割成的区域带有对应的节点的编号。
在通过分治法构成适当的决策树的过程中,需要对下述的(a)~(c)这3点进行研究。
(a)选择用于构成判别器的特征轴和阈值。
(b)决定末端节点。例如,1个末端节点中包含的学习数据所属的类的数量。或者,选择将决策树的修剪(根节点得到相同的部分树)进行到哪里。
(c)通过多数表决进行的对末端节点的类的分配。
决策树的学习方法例如可使用CART、ID3和C4.5。如图3和图4所示,CART是通过在末端节点以外的各节点中将特征空间按每个特征轴一分为二,生成2叉树作为决策树的方法。
在使用决策树的学习中,为了提高学习数据的判别性能,重要的是在非末端节点中将特征空间在最佳的分割候选点进行分割。作为对特征空间的分割候选点进行评价的参数,可以使用被称为不纯度的评价函数。作为表示节点t的不纯度的函数I(t),例如可使用由下述的式(1-1)~(1-3)表示的参数。K为类的数量。
(a)节点t中的错误率
(b)交叉熵(偏差)
(c)基尼系数
在上式中,概率P(Ci|t)是节点t中的类Ci的后验概率,换言之,是在节点t中选择类Ci的数据的概率。在式(1-3)的第2式中,概率P(Cj|t)是类Ci的数据被误认为第j(≠i)类的概率,因此,第2式表示节点t中的错误率。式(1-3)的第3式表示关于所有类的概率P(Ci|t)的方差之和。
在将不纯度作为评价函数来对节点进行分割的情况下,例如,可使用将决策树修剪到由该节点中的错误率和决策树的复杂度决定的允许范围的方法。
(2-2-2)支持向量机
支持向量机(SVM)是用于求取能够实现最大余量的2类线性判别函数的算法。图5是用于对SVM进行说明的图。2类线性判别函数表示在图5所示的特征空间中,用于对2个类C1、C2的学习数据进行线性分离的超平面即判别超平面P1、P2。在图5中,类C1的学习数据用圆表示,类C2的学习数据用正方形表示。判别超平面的余量是最接近判别超平面的学习数据与判别超平面之间的距离。图5表示出了判别超平面P1的余量d1和判别超平面P2的余量d2。在SVM中,可求出余量为最大的判别超平面即最佳判别超平面P1。一个类C1的学习数据与最佳判别超平面P1之间的距离的最小值d1,等于另一个类C2的学习数据与最佳判别超平面P2之间的距离的最小值d1。
在图5中,用下述的式(2-1)表示在2类问题的有监督学习中使用的学习数据集DL
DL={(ti,xi))(i=1,...,N) (2-1)
学习数据集DL是学习数据(特征向量)xi与示教数据ti={-1,+1}的对的集合。学习数据集DL的要素数为N。示教数据ti表示学习数据xi属于类C1、C2中的哪一个。类C1是ti=-1的类,类C2是ti=+1的类。
在图5中,在所有的学习数据xi中成立的、被标准化后的线性判别函数,可由下述的2个式子(2-2)和(2-3)表示。w是系数向量,b是偏置。
ti=+1时wTxi+b≥+1 (2-2)
ti=-1时wTxi+b≤-1 (2-3)
这2个式子可用下述的1个式子(2-4)表示。
ti(wTxi+b)≥1 (2-4)
在用下述的式(2-5)表示判别超平面P1、P2的情况下,其余量d可用式(2-6)表示。
wTx+b=0 (2-5)
在式(2-6)中,ρ(w)表示将类C1、C2各自的学习数据xi投影到判别超平面P1、P2的法线向量w上得到的长度之差的最小值。式(2-6)的“min”和“max”的项分别是在图5中用符号“min”和符号“max”表示的点。在图5中,最佳判别超平面是余量d为最大的判别超平面P1。
图5表示2类的学习数据能够进行线性分离的特征空间。图6是与图5同样的特征空间,表示2类的学习数据不能进行线性分离的特征空间。在2类的学习数据不能进行线性分离的情况下,能够使用在式(2-4)中导入松弛变量ξi进行扩展而得到的下式(2-7)。
ti(wTxi+b)-1+ξi≥0 (2-7)
松弛变量ξi仅在学习时使用,取0以上的值。图6表示出了判别超平面P3、余量边界B1、B2和余量d3。判别超平面P3的公式与公式(2-5)相同。余量边界B1、B2是距判别超平面P3的距离为余量d3的超平面。
在松弛变量ξi为0的情况下,式(2-7)与式(2-4)等价。此时,如在图6中用中间为白色的圆或正方形表示的那样,满足式(2-7)的学习数据xi在余量d3内能够被正确地判别。此时,学习数据xi与判别超平面P3之间的距离为余量d3以上。
在松弛变量ξi大于0且为1以下的情况下,如在图6中用带有阴影线的圆或正方形表示的那样,满足式(2-7)的学习数据xi超出了余量边界B1、B2,但是没有超出判别超平面P3,能够被正确地判别。此时,学习数据xi与判别超平面P3之间的距离小于余量d3。
在松弛变量ξi大于1的情况下,如在图6中用涂黑的圆或正方形表示的那样,满足式(2-7)的学习数据xi超出了判别超平面P3,会被误判别。
这样,通过使用导入了松弛变量ξi的式(2-7),即使在2类的学习数据不能进行线性分离的情况下,也能够判别学习数据xi
根据上述说明,所有的学习数据xi的松弛变量ξi之和表示被误判别的学习数据xi的数量的上限。在此,用下述的式(2-8)定义评价函数Lp
求出使评价函数Lp的输出值最小化的解(w,ξ)。在式(2-8)中,第2项的参数C表示对于误判别的惩罚的强度。参数C越大,可求出与w的范数(第1项)相比使误判别数(第2项)越小更优先的解。
(2-2-3)神经网络
图7是神经网络的神经元的模型的示意图。图8是将图7所示的神经元组合而构成的三层神经网络的示意图。如图7所示,神经元输出对于多个输入x(在图7中为输入x1、x2、x3)的输出y。对各输入x(在图7中为输入x1、x2、x3)乘以对应的权重w(在图7中为权重w1、w2、w3)。神经元使用下述的式(3-1)来输出输出y。
在式(3-1)中,输入x、输出y和权重w全部是向量,θ是偏置,φ是激活函数。激活函数是非线性函数,例如是阶跃函数(形式神经元)、简单感知器、S型函数或ReLU(斜坡函数)。
在图8所示的三层神经网络中,从输入侧(图8中的左侧)输入多个输入向量x(在图8中为输入向量x1、x2、x3),从输出侧(图8中的右侧)输出多个输出向量y(在图8中为输出向量y1、y2、y3)。该神经网络由3个层L1、L2、L3构成。
在第1层L1中,输入向量x1、x2、x3被乘以对应的权重而被输入到3个神经元N11、N12、N13各自中。在图8中,这些权重被汇总表示为W1。神经元N11、N12、N13分别输出特征向量z11、z12、z13。
在第2层L2中,特征向量z11、z12、z13被乘以对应的权重而被输入到2个神经元N21、N22各自中。在图8中,这些权重被汇总表示为W2。神经元N21、N22分别输出特征向量z21、z22。
在第3层L3中,特征向量z21、z22被乘以对应的权重而被输入到3个神经元N31、N32、N33各自中。在图8中,这些权重被汇总表示为W3。神经元N31、N32、N33分别输出输出向量y1、y2、y3。
神经网络的动作包括学习模式和预测模式。在学习模式中,使用学习数据集来学习权重W1、W2、W3。在预测模式中,使用学习到的权重W1、W2、W3的参数来进行判别等预测。
权重W1、W2、W3例如能够通过误差反向传播法(backpropagation)来进行学习。在该情况下,关于误差的信息,从输出侧向输入侧传递,换言之,在图8中从右侧向左侧传递。误差反向传播法是在各神经元中调节权重W1、W2、W3来进行学习以使得输入了输入x时的输出y与真正的输出y(示教数据)之差减小的方法。
神经网络能够构成为具有多于3层的层。基于4层以上的神经网络的机器学习的方法,作为深度学习(deep learning)为人所知。
(2-2-4)随机森林
随机森林是集成学习的一种,是将多个决策树组合来强化判别性能的方法。在使用随机森林的学习中,生成由相关性低的多个决策树构成的组(随机森林)。随机森林的生成和判别使用下述的算法。
(A)m从=1到M重复下述步骤。
(a)从N个d维学习数据生成m个自助样本Zm
(b)将Zm作为学习数据,按照下述的流程分割各节点t,生成m个决策树。
(i)从d个特征中随机选择dˊ个特征(dˊ<d)。
(ii)从所选择的dˊ个特征中求出能够提供学习数据的最佳分割的特征和分割点(阈值)。
(iii)在求出的分割点将节点t一分为二。
(B)输出由m个决策树构成的随机森林。
(C)对于输入数据,得到随机森林的各决策树的判别结果。随机森林的判别结果由各决策树的判别结果的多数表决来决定。
在使用随机森林的学习中,通过在决策树的各非末端节点中随机地选择预先决定的数量的用于判别的特征,能够降低决策树间的相关性。
(2-3)存储部14
图1所示的存储部14是记录介质的例子,例如由闪存、RAM、HDD等构成。在存储部14中预先存储有可在控制部11中执行的学习模型生成程序15。在存储部14中构建有数据库16,用于存储由获取部12获取的多个示教数据,并分别适当地进行管理。数据库16例如如图9所示,存储有多个示教数据。另外,图9表示存储在数据库16中的示教数据的一部分。在存储部14中,除了示教数据以外,还可以存储有学习数据集、检查用的数据等用于生成学习模型的信息。
(3)示教数据
发现基材信息、处理剂信息、评价相互存在相关关系。因此,为了生成学习模型而获取的示教数据,至少包括如以下所示的基材信息、处理剂信息、评价的信息。从进一步提高输出值的精度的观点出发,优选包括环境信息。此外,示教数据中当然也可以包括下述所示的信息以外的信息。在本发明中的存储部14的数据库16中,保存有包括以下所示的信息的多个示教数据。
(3-1)基材信息
基材信息是作为要固定表面处理剂的对象的基材的信息。
优选基材为纤维制品。纤维制品包括纤维、丝、纺织品、编织物、无纺布等布、地毯、皮革、纸等纤维制品。下面,对使用纤维制品作为基材的情况进行说明。在本实施方式中生成的学习模型能够用于纤维制品以外的基材。
基材信息包括纤维制品的种类、对纤维制品的表面进行染色的染色剂的种类、纤维制品中使用的纤维的粗细、纤维的编织方法、纤维的单位面积重量、纤维制品的颜色、纤维制品表面的ζ电位。
优选至少包括纤维制品的种类和/或纤维制品的颜色的信息,更优选还包括纤维的粗细的信息。
在图9的示教数据中包括作为基材信息的上述的各项目,但是省略了图示。
(3-2)处理剂信息
处理剂信息是关于要固定在基材上的表面处理剂的信息。表面处理剂例如是为了使基材拨水或拨油而固定在基材上的拨剂。下面,对使用拨剂作为表面处理剂的情况进行说明。
在本发明中,拨剂优选包含拨剂聚合物、溶剂、表面活性剂。
拨剂聚合物选自含氟拨剂聚合物或非氟拨剂聚合物。含氟拨剂聚合物和非氟拨剂聚合物优选为丙烯酸类聚合物、硅酮类聚合物或聚氨酯类聚合物。作为含氟丙烯酸类聚合物,优选具有从由式CH2=C(-X)-C(=O)-Y-Z-Rf(式中,X为氢原子、一价的有机基团或卤素原子,Y为-O-或-NH-,Z为直接键合或二价的有机基团,Rf为碳原子数1~6的氟烷基)表示的含氟单体衍生的重复单元的含氟丙烯酸类聚合物。作为非氟拨剂聚合物,优选为具有从由式(1):CH2=CA11-C(=O)-O-A12(式中,A11为氢原子或甲基,A12为碳原子数10~40的直链或支链的脂肪族烃基)表示的长链(甲基)丙烯酸酯单体衍生的重复单元的非氟丙烯酸类聚合物。
溶剂为水或非水溶剂等。
表面活性剂为非离子性表面活性剂、阳离子性表面活性剂、阴离子表面活性剂和两性表面活性剂等。
另外,拨剂中,除了上述成分以外,还可以含有添加剂。作为添加剂的种类,为交联剂(例如封端异氰酸酯)、防虫剂、抗菌剂、柔软剂、防霉剂、阻燃剂、抗静电剂、消泡剂、涂料固定剂、渗透剂、有机溶剂、催化剂、pH调节剂、防皱剂等。
在处理剂信息中,包括构成所述表面处理剂中包含的拨剂聚合物的单体的种类、所述拨剂聚合物中的单体的含量、表面处理剂中的所述拨剂聚合物的含量、溶剂的种类和表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量。
优选至少包括构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量。
另外,更优选除了上述以外还包括表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量。进一步优选,除了上述以外,还包括表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
处理剂信息中,作为上述以外的信息,可以包括要添加到拨剂中的添加剂的种类和含量、拨剂的pH、拨剂的ζ电位等信息。处理剂信息当然可以包括上述以外的信息。图9的示教数据中包含作为处理剂信息的上述的各项目,但是省略了一部分图示。
(3-3)评价
评价是固定有表面处理剂的物品的信息。
评价包括拨水信息、拨油信息、防污信息、加工稳定信息等与化学性质相关的信息。优选至少包括拨水信息和/或拨油信息。拨水信息是关于使表面处理剂固定后的物品的拨水性的信息。拨水信息例如是根据JIS L1092(喷雾试验)评价的拨水度的值。拨油信息是关于使表面处理剂固定后的物品的拨油性的信息。拨油信息例如是根据AATCC 118或ISO14419评价的拨油度的值。防污信息是关于使表面处理剂固定后的物品的防污性的信息。防污信息例如是按照JIS L1919评价的防污度的值。加工稳定信息是关于使表面处理剂固定后对物品进行加工的工序中的物品和表面处理剂受到的影响的信息。加工稳定信息可以基于加工工序分别设置基准。例如,可用将树脂附着在对纤维制品施加压力而集拢的辊上的程度进行数值化而得到的值来表示。
在图9的示教数据中,至少包括作为评价的上述项目中的任意1个,但是省略了图示。
(3-4)环境信息
环境信息是使表面处理剂固定在基材上时的环境的信息。具体而言,环境信息例如是处理槽中的表面处理剂浓度、关于进行使表面处理剂固定在基材上的加工的工厂等的环境的信息、或者关于加工的工序的信息等。
环境信息例如可以包括对基材进行加工时的气温、湿度、加工时的固化温度、加工速度等信息。环境信息优选至少包括处理槽中的表面处理剂浓度的信息。图9的示教数据中包含作为环境信息的上述的各项目,但是省略了一部分图示。
(4)学习模型生成装置10的动作
下面,参照图10,对学习模型生成装置10的动作的概要进行说明。
首先,在步骤S11中,学习模型生成装置10启动存储在存储部14中的学习模型生成程序15。由此,学习模型生成装置10基于学习模型生成程序15进行动作,开始学习模型的生成。
在步骤S12中,基于学习模型生成程序15,获取部12获取多个示教数据。
在步骤S13中,获取部12将多个示教数据保存到在存储部14中构建的数据库16中。存储部14存储多个示教数据,并适当地进行管理。
在步骤S14中,学习部13从存储在存储部14中的示教数据中提取学习数据集。提取的学习数据集可与学习模型生成装置10要生成的学习模型的学习目的相应地决定。数据集是基于示教数据。
在步骤S15中,学习部13基于提取出的多个数据集进行学习。
在步骤S16中,基于在步骤S15中学习部13学习的结果,生成与学习目的相应的学习模型。
通过上述步骤,结束学习模型生成装置10的动作。此外,学习模型生成装置10的动作的顺序等可以适当变更。所生成的学习模型可被安装在通用的计算机或终端中,或者作为软件或应用程序而被下载,或者以存储在存储介质中的状态被发布等而被使用。
(5)用户装置20的结构
图2表示在本实施方式中用户使用的用户装置20的结构。在此,用户是指对用户装置20输入某种信息或者使用户装置20输出某种信息的人。用户装置20使用在学习模型生成装置10中生成的学习模型。
用户装置20是具有计算机的功能的装置。用户装置20可以是包括NIC等通信接口、DMA控制器,能够经由网络与学习模型生成装置10等进行通信。图2所示的用户装置20图示为1台装置,但是优选用户装置20与云计算对应。因此,用户装置20的硬件结构不需要被收纳在1个壳体中,或者作为一个装置设置。例如,可以通过与负载相应地动态地连接/切断硬件的用户装置20的资源而构成。
用户装置20例如具有输入部24、输出部25、控制部21和存储部26。
(5-1)输入部24
输入部24例如是键盘、触摸面板、鼠标等。用户能够经由输入部24对用户装置20输入信息。
(5-2)输出部25
输出部25例如是显示器、打印机等。输出部25能够输出用户装置20还使用学习模型进行分析而得到的结果。
(5-3)控制部21
控制部21例如是CPU,用于执行用户装置20整体的控制。控制部21具有分析部22和更新部23等功能部。
控制部21的分析部22用于使用预先存储在存储部26中的作为程序的学习模型,对经由输入部24输入的输入信息进行分析。分析部22进行的分析优选使用上述的机器学习的方法来进行,但是并不限于此。分析部22通过使用在学习模型生成装置10中学习完成的学习模型,对于未知的输入信息也能够输出正解。
更新部23为了得到高质量的学习模型,将存储在存储部26中的学习模型更新为最佳的状态。更新部23例如使神经网络中的各层的神经元间的权重最佳化。
(5-4)存储部26
存储部26是记录介质的例子,例如由闪存、RAM、HDD等构成。在存储部26中预先存储有能够在控制部21中执行的学习模型。在存储部26中,在数据库27中存储多个示教数据,分别适当地进行管理。此外,在存储部26中,也可以另外存储有学习数据集等信息。存储在存储部26中的示教数据,是上述的基材信息、处理剂信息、评价、环境信息等信息。
(6)用户装置20的动作
下面,参照图11对用户装置20的动作的概要进行说明。在此,用户装置20为在存储部26中存储有在学习模型生成装置10中生成的学习模型的状态。
首先,在步骤S21中,用户装置20启动存储在存储部26中的学习模型。用户装置20基于学习模型进行动作。
在步骤S22中,使用用户装置20的用户经由输入部24输入输入信息。经由输入部24输入的输入信息被发送到控制部21。
在步骤S23中,控制部21的分析部22从输入部24接收输入信息,进行分析,决定输出部输出的信息。分析部22决定的信息被发送到输出部25。
在步骤S24中,输出部25输出从分析部22接收到的结果信息。
在步骤S25中,更新部23基于输入信息和结果信息等将学习模型更新为最佳状态。
通过上述步骤,结束用户装置20的动作。此外,用户装置20的动作的顺序等可以适当变更。
(7)具体例
下面,对使用上述的学习模型生成装置10和用户装置20的具体例进行说明。
(7-1)拨水性学习模型
在此,对将拨水性作为输出的拨水性学习模型进行说明。
(7-1-1)拨水性学习模型生成装置10
为了生成拨水性学习模型,拨水性学习模型生成装置10必须获取至少包括基材的种类、对基材的表面进行染色的染色剂的种类、构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、表面活性剂的种类和表面处理剂中的表面活性剂的含量、和拨水信息的信息的多个示教数据。此外,拨水性学习模型生成装置10也可以获取其它信息。
拨水性学习模型生成装置10通过基于所获取的示教数据进行学习,能够生成拨水性学习模型,该拨水性学习模型将基材信息和处理剂信息作为输入,将拨水信息作为输出,其中,基材信息包括基材的种类、对基材的表面进行染色的染色剂的种类的信息,处理剂信息包括构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
(7-1-2)使用拨水性学习模型的用户装置20
用户装置20是能够使用拨水性学习模型的装置。使用用户装置20的用户将基材信息和处理剂信息输入到用户装置20,其中,基材信息包括基材的种类、对基材的表面进行染色的染色剂的种类的信息,处理剂信息包括构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
用户装置20使用拨水性学习模型来决定拨水信息。输出部25输出所决定的拨水信息。
(7-2)拨油性学习模型
在此,对将拨油性作为输出的拨油性学习模型进行说明。
(7-2-1)拨油性学习模型生成装置10
为了生成拨油性学习模型,拨油性学习模型生成装置10必须获取至少包括基材的种类、对基材的表面进行染色的染色剂的种类、构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、表面活性剂的种类和表面处理剂中的表面活性剂的含量、和拨油信息的信息的多个示教数据。此外,拨油性学习模型生成装置10也可以获取其它信息。
拨油性学习模型生成装置10通过基于所获取的示教数据进行学习,能够生成拨油性学习模型,该拨油性学习模型将基材信息和处理剂信息作为输入,将拨油信息作为输出,其中,基材信息包括基材的种类、对基材的表面进行染色的染色剂的种类的信息,处理剂信息包括构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
(7-2-2)使用拨油性学习模型的用户装置20
用户装置20是能够使用拨油性学习模型的装置。使用用户装置20的用户将基材信息和处理剂信息输入到用户装置20,其中,基材信息包括基材的种类、对基材的表面进行染色的染色剂的种类的信息,处理剂信息包括构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
用户装置20使用拨油性学习模型来决定拨油信息。输出部25输出所决定的拨油信息。
(7-3)防污性学习模型
在此,对将防污性作为输出的防污性学习模型进行说明。
(7-3-1)防污性学习模型生成装置10
为了生成防污性学习模型,防污性学习模型生成装置10必须获取至少包括基材的种类、对基材的表面进行染色的染色剂的种类、构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、表面活性剂的种类和表面处理剂中的表面活性剂的含量、和防污信息的信息的多个示教数据。另外,防污性学习模型生成装置10也可以获取其它信息。
防污性学习模型生成装置10通过基于所获取的示教数据进行学习,能够生成防污性学习模型,该防污性学习模型将基材信息和处理剂信息作为输入,将防污信息作为输出,其中,基材信息包括基材的种类、对基材的表面进行染色的染色剂的种类的信息,处理剂信息包括构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
(7-3-2)使用防污性学习模型的用户装置20
用户装置20是能够使用防污性学习模型的装置。使用用户装置20的用户将基材信息和处理剂信息输入到用户装置20,其中,基材信息包括基材的种类、对基材的表面进行染色的染色剂的种类的信息,处理剂信息包括构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
用户装置20使用防污性学习模型来决定防污信息。输出部25输出所决定的防污信息。
(7-4)加工稳定性学习模型
在此,对将加工稳定性作为输出的加工稳定性学习模型进行说明。
(7-4-1)加工稳定性学习模型生成装置10
为了生成加工稳定性学习模型,加工稳定性学习模型生成装置10必须获取至少包括基材的种类、对基材的表面进行染色的染色剂的种类、构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、表面活性剂的种类和表面处理剂中的表面活性剂的含量、和加工稳定信息的信息的多个示教数据。另外,加工稳定性学习模型生成装置10也可以获取其它信息。
加工稳定性学习模型生成装置10通过基于所获取的示教数据进行学习,能够生成加工稳定性学习模型,该加工稳定性学习模型将基材信息和处理剂信息作为输入,将加工稳定信息作为输出,其中,的基材信息包括基材的种类、对基材的表面进行染色的染色剂的种类的信息,处理剂信息包括构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
(7-4-2)使用加工稳定性学习模型的用户装置20
用户装置20是能够使用加工稳定性学习模型的装置。使用用户装置20的用户将基材信息和处理剂信息输入到用户装置20,其中,基材信息包括基材的种类、对基材的表面进行染色的染色剂的种类的信息,处理剂信息包括构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
用户装置20使用加工稳定性学习模型来决定加工稳定信息。输出部25输出所决定的加工稳定信息。
(7-5)拨水剂学习模型
在此,对将最佳的拨水剂作为输出的拨水剂学习模型进行说明。
(7-5-1)拨水剂学习模型生成装置10
为了生成拨水剂学习模型,拨水剂学习模型生成装置10必须获取至少包括基材的种类、对基材的表面进行染色的染色剂的种类、构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、表面活性剂的种类和表面处理剂中的表面活性剂的含量、和拨水信息的信息的多个示教数据。此外,拨水剂学习模型生成装置10也可以获取其它信息。
拨水剂学习模型生成装置10通过基于所获取的示教数据进行学习,能够生成将包括基材的种类、对基材的表面进行染色的染色剂的种类的信息的基材信息作为输入,将最适合于基材的拨剂信息作为输出的拨水剂学习模型。
(7-5-2)使用拨水剂学习模型的用户装置20
用户装置20是能够使用拨水剂学习模型的装置。使用用户装置20的用户将包括基材的种类、对基材的表面进行染色的染色剂的种类的信息的基材信息输入到用户装置20。
用户装置20使用拨水剂学习模型,决定最适合于基材的拨剂信息。输出部25输出所决定的拨剂信息。
(7-6)拨油剂学习模型
在此,对将最佳的拨油剂作为输出的拨油剂学习模型进行说明。
(7-6-1)拨油剂学习模型生成装置10
为了生成拨油剂学习模型,拨油剂学习模型生成装置10必须获取至少包括基材的种类、对基材的表面进行染色的染色剂的种类、拨油信息、构成表面处理剂中包含的拨剂聚合物的单体的种类、拨剂聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类、表面处理剂中的溶剂的含量、表面活性剂的种类和表面处理剂中的表面活性剂的含量、和拨油信息的信息的多个示教数据。此外,拨油剂学习模型生成装置10也可以获取其它信息。
拨油剂学习模型生成装置10通过基于所获取的示教数据进行学习,能够生成将包括基材的种类、对基材的表面进行染色的染色剂的种类的信息的基材信息作为输入,将最适合于基材的拨剂信息作为输出的拨油剂学习模型。
(7-6-2)使用拨油剂学习模型的用户装置20
用户装置20是能够使用拨油剂学习模型的装置。使用用户装置20的用户将包括基材的种类、对基材的表面进行染色的染色剂的种类的信息的基材信息输入到用户装置20。
用户装置20使用拨油剂学习模型,决定最适合于基材的拨剂信息。输出部25输出所决定的拨剂信息。
(8)特征
(8-1)
本实施方式的学习模型生成方法用于生成学习模型,该学习模型能够使用计算机来决定在基材上固定有表面处理剂的物品的评价。学习模型生成方法包括获取步骤S12、学习步骤S15和生成步骤S16。在获取步骤S12中,计算机获取示教数据。示教数据包括基材信息、处理剂信息和物品的评价。基材信息是基材的信息。处理剂信息是表面处理剂的信息。在学习步骤S15中,计算机基于在获取步骤S12中获取的多个示教数据来进行学习。在生成步骤S16中,计算机基于在学习步骤S15中学习的结果来生成学习模型。物品是使表面处理剂固定在基材上而得到的。学习模型能够将输入信息作为输入,将评价作为输出。输入信息是与示教数据不同的未知的信息。输入信息是至少包括基材信息和处理剂信息的信息。
而且,如上所述,将以基材信息、处理剂信息和评价作为示教数据进行学习而得到的学习模型作为程序在计算机中使用,来决定评价。学习模型包括输入步骤S22、决定步骤S23和输出步骤S24。在输入步骤S22中,输入输入信息,该输入信息是包括基材信息和处理剂信息的、与示教数据不同的未知的信息。决定步骤S23中,使用学习模型来决定评价。输出步骤S24中,输出在决定步骤S23中决定的评价。
以往,在基材上固定有表面处理剂的物品的评价,是在现场对各种基材与表面处理剂的组合分别进行试验。在这样的以往的评价方法中,为了进行评价需要大量的时间和工序,要求改善评价方法。
另外,如专利文献2(日本特开1999-511949号公报)中所示,为了在不同领域中输出最佳组合而设计了使用神经网络的程序等,但是在拨水剂这样的特殊领域中没有进行使用神经网络的程序等的设计。
利用本实施方式的学习模型生成方法生成的学习模型,能够使用计算机进行评价。能够削减以往需要的大量的时间和工序。而且通过削减工序,还能够削减进行评价所需要的人员,还能够削减评价所花费的成本。
(8-2)
本实施方式的学习模型生成方法是能够使用计算机来决定最适合于基材的表面处理剂的学习模型的生成方法。包括获取步骤S12、学习步骤S15和生成步骤S16。在获取步骤S12中,计算机获取示教数据。示教数据包括基材信息、处理剂信息和评价。基材信息是基材的信息。处理剂信息是表面处理剂的信息。评价是在基材上固定有表面处理剂的物品的评价。在学习步骤S15中,计算机基于在获取步骤S12中获取的多个示教数据来进行学习。生成步骤S16中,计算机基于在学习步骤S15中学习的结果来生成学习模型。物品是使表面处理剂固定在基材上而得到的。学习模型能够将输入信息作为输入,将评价作为输出。输入信息是与示教数据不同的未知的信息。输入信息是至少包括基材信息的信息。
而且,如上所述,将以基材信息、处理剂信息和评价作为示教数据进行学习而得到的学习模型作为程序在计算机中使用,来决定处理剂信息。程序包括输入步骤S22、决定步骤S23和输出步骤S24。在输入步骤S22中,输入输入信息,该输入信息是包括基材信息的、与示教数据不同的未知的信息。决定步骤S23中,使用学习模型,来决定最适合于基材的处理剂信息。输出步骤S24中,输出在决定步骤S23中决定的处理剂信息。
以往的评价方法中,在现场存在评价低的基材与表面处理剂的组合的情况下,有时必须带回用于进行研究的设施,进行研究、改良,为了选择最适合于基材的表面处理剂,需要大量的时间和工序。
利用本实施方式的学习模型生成方法生成的学习模型,能够使用计算机来决定最适合于基材的表面处理剂。由此,能够削减用于选择最佳的表面处理剂的时间、工序、人员、成本等。
(8-3)
本实施方式的学习模型生成方法的学习步骤S15中,优选通过回归分析和/或将多个回归分析组合而成的集成学习来进行学习。
作为本实施方式的程序的学习模型的评价,优选为拨水信息、拨油信息、防污信息和加工稳定信息中的任意者。拨水信息是关于物品的拨水性的信息。拨油信息是关于物品的拨油性的信息。防污信息是关于物品的防污性的信息。加工稳定信息是关于物品的加工稳定性的信息。
优选基材为纤维制品。
基材信息至少包括纤维制品的种类和染色剂的种类的信息。处理剂信息至少包括构成所述表面处理剂中包含的拨剂聚合物的单体的种类、聚合物中的单体单元的含量、表面处理剂中的拨剂聚合物的含量、溶剂的种类和表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
示教数据包括加工基材时的环境信息。环境信息包括对基材进行加工时的气温、湿度、固化温度、加工速度中的任意个信息。基材信息优选还包括纤维制品的颜色、编织方法、单位面积重量、纱线的粗细、ζ电位中的任意个信息。处理剂信息还包括要添加到表面处理剂中的添加剂的种类和含量、表面处理剂的pH、ζ电位中的任意个项目的信息。
示教数据优选包括关于多个项目的信息,示教数据的数量越多越优选。由此,能够得到精度更高的输出。
(8-4)
作为本实施方式的程序的学习模型,可以经由存储有程序的存储介质来发布。
(8-5)
本实施方式的学习模型是在学习模型生成方法中进行了学习的学习完成模型。学习完成模型是用于使计算机发挥下述功能的学习完成模型:对被输入到神经网络的输入层的作为基材的信息的基材信息和作为要固定在基材上的表面处理剂的信息的处理剂信息进行基于神经网络的权重系数的运算,从神经网络的输出层输出物品的拨水信息或拨油信息。权重系数是通过至少将基材信息、处理剂信息和在基材上固定有表面处理剂的基材的评价作为示教数据进行学习而得到的。物品是使表面处理剂固定在基材上而得到的。
(8-6)
学习完成模型是用于使计算机发挥下述功能的学习完成模型:对被输入到神经网络的输入层的作为基材的信息的基材信息进行基于神经网络的权重系数的运算,从神经网络的输出层输出最适合于基材的处理剂信息。权重系数是通过至少将基材信息、处理剂信息和固定有表面处理剂的基材的评价作为示教数据进行学习而得到的。处理剂信息是要固定在基材上的表面处理剂的信息。物品是使表面处理剂固定在基材上而得到的。
(9)
上面,对本发明的实施方式进行了说明,但是应该理解,在不脱离权利要求书中记载的本发明的主旨和范围的情况下,可以进行方式和详细内容的多种变更。
附图标记说明
S12获取步骤,S15学习步骤,S16生成步骤,S22输入步骤,S23决定步骤,S24输出步骤。
现有技术文献
专利文献
专利文献1:日本特表2018-535281号公报
专利文献2:日本特开1999-511949号公报

Claims (16)

1.一种学习模型生成方法,其用于生成学习模型,该学习模型能够使用计算机来决定在基材上固定有表面处理剂的物品的评价,所述学习模型生成方法的特征在于,包括:
获取步骤(S12),所述计算机获取至少包括作为所述基材的信息的基材信息、作为所述表面处理剂的信息的处理剂信息、和所述物品的所述评价在内的信息作为示教数据;
学习步骤(S15),所述计算机基于在所述获取步骤(S12)中获取的多个所述示教数据来进行学习;和
生成步骤(S16),所述计算机基于在所述学习步骤(S15)中学习的结果来生成所述学习模型,
其中,所述物品是使所述表面处理剂固定在所述基材上而得到的,
所述学习模型能够将作为与所述示教数据不同的未知的信息的输入信息作为输入,输出所述评价,
所述输入信息是至少包括所述基材信息和所述处理剂信息的信息,
所述处理剂信息至少包括构成所述表面处理剂中包含的拨剂聚合物的单体的种类、所述拨剂聚合物中的单体的含量、表面处理剂中的所述拨剂聚合物的含量、溶剂的种类和表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
2.一种学习模型生成方法,其特征在于,包括:
获取步骤(S12),计算机获取至少包括作为基材的信息的基材信息、作为要固定在所述基材上的表面处理剂的信息的处理剂信息、和在所述基材上固定有所述表面处理剂的物品的评价在内的信息作为示教数据;
学习步骤(S15),所述计算机基于在所述获取步骤(S12)中获取的多个所述示教数据来进行学习;和
生成步骤(S16),所述计算机基于在所述学习步骤(S15)中学习的结果来生成学习模型,
其中,所述物品是使所述表面处理剂固定在所述基材上而得到的,
所述学习模型能够输入作为与所述示教数据不同的未知的信息的输入信息,输出最适合于所述基材的处理剂信息,
所述输入信息是至少包括所述基材信息和所述评价的信息的信息,
所述处理剂信息至少包括构成所述表面处理剂中包含的拨剂聚合物的单体的种类、所述拨剂聚合物中的单体的含量、表面处理剂中的所述拨剂聚合物的含量、溶剂的种类和表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
3.如权利要求1或2所述的学习模型生成方法,其特征在于:
在所述学习步骤(S15)中,通过回归分析和/或将多个回归分析组合而成的集成学习来进行学习。
4.一种物品评价决定方法,其为计算机使用学习模型来决定在基材上固定有表面处理剂的物品的评价的方法,所述方法的特征在于,包括:
输入步骤(S22),对所述计算机输入输入信息;
决定步骤(S23),所述计算机决定所述评价;和
输出步骤(S24),所述计算机输出在所述决定步骤(S23)中决定的所述评价,
其中,所述物品是使所述表面处理剂固定在所述基材上而得到的,
所述学习模型能够将至少包括作为所述基材的信息的基材信息、作为所述表面处理剂的信息的处理剂信息、和所述评价在内的信息作为示教数据进行学习,
所述输入信息是至少包括所述基材信息和所述处理剂信息的、与所述示教数据不同的未知的信息,
所述处理剂信息至少包括构成所述表面处理剂中包含的拨剂聚合物的单体的种类、所述拨剂聚合物中的单体的含量、表面处理剂中的所述拨剂聚合物的含量、溶剂的种类和表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
5.如权利要求4所述的物品评价决定方法,其特征在于:
所述评价包括拨水信息、拨油信息、防污信息和加工稳定信息中的任意者,其中,所述拨水信息为关于所述物品的拨水性的信息,所述拨油信息为关于所述物品的拨油性的信息,所述防污信息为关于所述物品的防污性的信息,所述加工稳定信息为关于所述物品的加工稳定性的信息。
6.如权利要求4所述的物品评价决定方法,其特征在于:
所述基材为纤维制品。
7.如权利要求6所述的物品评价决定方法,其特征在于:
所述基材信息至少包括所述纤维制品的种类和染色剂的种类的信息。
8.如权利要求7所述的物品评价决定方法,其特征在于:
所述示教数据还包括加工所述基材时的环境信息,
所述环境信息包括处理槽中的表面处理剂浓度、加工所述基材时的气温、湿度、固化温度、加工速度中的任意个信息,
所述基材信息还包括所述纤维制品的颜色、编织方法、单位面积重量、纱线的粗细、ζ电位中的任意个信息,
所述处理剂信息还包括要添加到所述表面处理剂中的添加剂的种类和含量、所述表面处理剂的pH、ζ电位中的任意个项目的信息。
9.一种处理剂信息决定方法,其为计算机使用学习模型来决定要固定在基材上的最佳的处理剂信息的方法,所述方法的特征在于,包括:
输入步骤(S22),对所述计算机输入输入信息;
决定步骤(S23),所述计算机决定最佳的所述处理剂信息;和
输出步骤(S24),所述计算机输出在所述决定步骤(S23)中决定的最佳的所述处理剂信息,
其中,所述学习模型能够将至少包括作为所述基材的信息的基材信息、作为要固定在所述基材上的表面处理剂的信息的处理剂信息、和在所述基材上固定有所述表面处理剂的物品的评价在内的信息作为示教数据进行学习,
所述输入信息是至少包括所述基材信息和所述评价的信息的、与所述示教数据不同的未知的信息,
所述物品是使所述表面处理剂固定在所述基材上而得到的,
所述处理剂信息至少包括构成所述表面处理剂中包含的拨剂聚合物的单体的种类、所述拨剂聚合物中的单体的含量、表面处理剂中的所述拨剂聚合物的含量、溶剂的种类和表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
10.如权利要求9所述的处理剂信息决定方法,其特征在于:
所述评价包括拨水信息、拨油信息、防污信息和加工稳定信息中的任意者,其中,所述拨水信息为关于所述物品的拨水性的信息,所述拨油信息为关于所述物品的拨油性的信息,所述防污信息为关于所述物品的防污性的信息,所述加工稳定信息为关于所述物品的加工稳定性的信息。
11.如权利要求9所述的处理剂信息决定方法,其特征在于:
所述基材为纤维制品。
12.如权利要求11所述的处理剂信息决定方法,其特征在于:
所述基材信息至少包括所述纤维制品的种类和染色剂的种类的信息。
13.如权利要求12所述的处理剂信息决定方法,其特征在于:
所述示教数据还包括加工所述基材时的环境信息,
所述环境信息包括处理槽中的表面处理剂浓度、加工所述基材时的气温、湿度、固化温度、加工速度中的任意个信息,
所述基材信息还包括所述纤维制品的颜色、编织方法、单位面积重量、纱线的粗细、ζ电位中的任意个信息,
所述处理剂信息还包括要添加到所述表面处理剂中的添加剂的种类和含量、所述表面处理剂的pH、ζ电位中的任意个项目的信息。
14.一种计算机可读取的存储介质,其存储有程序,其特征在于:
所述程序在计算机上运行时,能够使计算机执行权利要求4~8中任一项所述的物品评价决定方法或权利要求9~13中任一项所述的处理剂信息决定方法。
15.一种物品评价输出方法,其用于使计算机发挥下述功能:
对被输入到神经网络的输入层的基材信息和处理剂信息进行基于所述神经网络的权重系数的运算,从所述神经网络的输出层输出物品的评价,
所述物品评价输出方法的特征在于:
所述权重系数是通过至少将所述基材信息、所述处理剂信息和所述评价作为示教数据进行学习而得到的,
所述基材信息是所述基材的信息,
所述处理剂信息是要固定在所述基材上的表面处理剂的信息,
所述评价是在所述基材上固定有所述表面处理剂的物品的评价,
所述物品是使所述表面处理剂固定在所述基材上而得到的,
所述处理剂信息至少包括构成所述表面处理剂中包含的拨剂聚合物的单体的种类、所述拨剂聚合物中的单体的含量、表面处理剂中的所述拨剂聚合物的含量、溶剂的种类和表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
16.一种处理剂信息输出方法,其用于使计算机发挥下述功能:
对被输入到神经网络的输入层的基材信息和评价的信息进行基于所述神经网络的权重系数的运算,从所述神经网络的输出层输出最适合于基材的处理剂信息,
所述处理剂信息输出方法的特征在于:
所述权重系数是通过至少将所述基材信息、所述处理剂信息和所述评价作为示教数据进行学习而得到的,
所述基材信息是所述基材的信息,
所述处理剂信息是要固定在所述基材上的表面处理剂的信息,
所述评价是在所述基材上固定有所述表面处理剂的物品的评价,
所述物品是使所述表面处理剂固定在所述基材上而得到的,
所述处理剂信息至少包括构成所述表面处理剂中包含的拨剂聚合物的单体的种类、所述拨剂聚合物中的单体的含量、表面处理剂中的所述拨剂聚合物的含量、溶剂的种类和表面处理剂中的溶剂的含量、以及表面活性剂的种类和表面处理剂中的表面活性剂的含量的信息。
CN202080036528.8A 2019-05-16 2020-05-12 学习模型生成方法、物品评价决定和输出方法、存储介质 Active CN113841150B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019092818 2019-05-16
JP2019-092818 2019-05-16
PCT/JP2020/018967 WO2020230781A1 (ja) 2019-05-16 2020-05-12 学習モデル生成方法、プログラム、記憶媒体、学習済みモデル

Publications (2)

Publication Number Publication Date
CN113841150A CN113841150A (zh) 2021-12-24
CN113841150B true CN113841150B (zh) 2024-04-09

Family

ID=73289411

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080036528.8A Active CN113841150B (zh) 2019-05-16 2020-05-12 学习模型生成方法、物品评价决定和输出方法、存储介质

Country Status (6)

Country Link
US (1) US20220237524A1 (zh)
EP (1) EP3971760A4 (zh)
JP (1) JP7212293B2 (zh)
KR (1) KR20220007166A (zh)
CN (1) CN113841150B (zh)
WO (1) WO2020230781A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023021558A (ja) * 2021-08-02 2023-02-14 ダイキン工業株式会社 学習モデル生成方法、プログラム、記憶媒体、学習済みモデル

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570561A (zh) * 2016-11-08 2017-04-19 华中科技大学 一种绝缘子表面不可溶沉积物密度预测系统及方法
CA3015025A1 (en) * 2016-04-05 2017-10-12 Deakin University Systems and methods for making a product

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19614627A1 (de) 1996-04-13 1997-10-16 Abb Patent Gmbh Hochspannungs-Stromrichtersystem
EP1146447A1 (en) 2000-04-12 2001-10-17 Unilever N.V. Method for finding solutions
DE102004028002A1 (de) * 2004-06-09 2006-01-05 Stockhausen Gmbh Verfahren zur Herstellung von hydrophilen Polymeren unter Verwendung eines rechnererzeugten Modells
JP4955411B2 (ja) 2007-01-31 2012-06-20 太陽工業株式会社 判定装置、判定システム、判定方法、及びコンピュータプログラム
JP5649424B2 (ja) * 2010-02-03 2015-01-07 大和ハウス工業株式会社 防水シート診断方法および診断装置
JP2018535281A (ja) 2015-09-07 2018-11-29 ヤンセン ファーマシューティカ エヌ.ベー. 撥水剤の組み合わせ

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3015025A1 (en) * 2016-04-05 2017-10-12 Deakin University Systems and methods for making a product
CN106570561A (zh) * 2016-11-08 2017-04-19 华中科技大学 一种绝缘子表面不可溶沉积物密度预测系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Eylen Sema Naml goz等.Prediction of Various Functional Finishing Treatments Using Artificial Neural Networks.《Fibers and Polymers》.2011,第12卷(第3期),414-421. *

Also Published As

Publication number Publication date
CN113841150A (zh) 2021-12-24
US20220237524A1 (en) 2022-07-28
JPWO2020230781A1 (zh) 2020-11-19
WO2020230781A1 (ja) 2020-11-19
JP7212293B2 (ja) 2023-01-25
KR20220007166A (ko) 2022-01-18
EP3971760A4 (en) 2023-06-21
EP3971760A1 (en) 2022-03-23

Similar Documents

Publication Publication Date Title
Bao et al. PSO-MISMO modeling strategy for multistep-ahead time series prediction
Sidhu et al. A novel online ensemble approach to handle concept drifting data streams: diversified dynamic weighted majority
CN109472318A (zh) 为构建的机器学习模型选取特征的方法及装置
Guidotti et al. Verification of neural networks: Enhancing scalability through pruning
CN108960304A (zh) 一种网络交易欺诈行为的深度学习检测方法
CN113841150B (zh) 学习模型生成方法、物品评价决定和输出方法、存储介质
Ribeiro et al. Predicting physical properties of woven fabrics via automated machine learning and textile design and finishing features
CN112905465A (zh) 一种基于深度强化学习的机器学习模型黑盒公平性测试方法和系统
Dalle Pezze et al. A multi-label continual learning framework to scale deep learning approaches for packaging equipment monitoring
Woodward et al. The'composite'design pattern in metaheuristics
CN111340102B (zh) 评估模型解释工具的方法和装置
de Campos Souza et al. Online active learning for an evolving fuzzy neural classifier based on data density and specificity
Jisha et al. Population based optimized and condensed fuzzy deep belief network for credit card fraudulent detection
Zhang et al. Interactive learning with proactive cognition enhancement for crowd workers
CN112154459A (zh) 模型解释
Yıldırım et al. Improving prediction performance using ensemble neural networks in textile sector
Lucca et al. Analyzing the behavior of aggregation and pre-aggregation functions in fuzzy rule-based classification systems with data complexity measures
Jafarigol et al. The Paradox of Noise: An Empirical Study of Noise-Infusion Mechanisms to Improve Generalization, Stability, and Privacy in Federated Learning
Iba et al. GP-RVM: Genetic programing-based symbolic regression using relevance vector machine
Theofilatos et al. Modelling and Trading the DJIA Financial Index using neural networks optimized with adaptive evolutionary algorithms
Costa et al. Using skill rating as fitness on the evolution of gans
Sova et al. Development of a methodology for training artificial neural networks for intelligent decision support systems
Galatolo et al. Formal derivation of mesh neural networks with their forward-only gradient propagation
Marino et al. Engineered ordinary differential equations as classification algorithm (eodeca): thorough characterization and testing
Hu et al. A kNN classifier optimized by P systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant