CN114654902A - 利用机器学习模型来执行印刷介质的判别处理的方法以及系统 - Google Patents
利用机器学习模型来执行印刷介质的判别处理的方法以及系统 Download PDFInfo
- Publication number
- CN114654902A CN114654902A CN202111560342.5A CN202111560342A CN114654902A CN 114654902 A CN114654902 A CN 114654902A CN 202111560342 A CN202111560342 A CN 202111560342A CN 114654902 A CN114654902 A CN 114654902A
- Authority
- CN
- China
- Prior art keywords
- machine learning
- print medium
- learning model
- medium
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B41—PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
- B41J—TYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
- B41J11/00—Devices or arrangements of selective printing mechanisms, e.g. ink-jet printers or thermal printers, for supporting or handling copy material in sheet or web form
- B41J11/009—Detecting type of paper, e.g. by automatic reading of a code that is printed on a paper package or on a paper roll or by sensing the grade of translucency of the paper
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B41—PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
- B41J—TYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
- B41J29/00—Details of, or accessories for, typewriters or selective printing mechanisms not otherwise provided for
- B41J29/38—Drives, motors, controls or automatic cut-off devices for the entire printing mechanism
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B41—PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
- B41J—TYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
- B41J11/00—Devices or arrangements of selective printing mechanisms, e.g. ink-jet printers or thermal printers, for supporting or handling copy material in sheet or web form
- B41J11/36—Blanking or long feeds; Feeding to a particular line, e.g. by rotation of platen or feed roller
- B41J11/42—Controlling printing material conveyance for accurate alignment of the printing material with the printhead; Print registering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Spectrometry And Color Measurement (AREA)
- Image Analysis (AREA)
Abstract
本公开提供利用机器学习模型来执行印刷介质的判别处理的方法以及系统,并提供一种能够对光学特性相似的印刷介质彼此进行判别的技术。执行印刷介质的判别处理的方法包含:工序(a),当将N设为1以上的整数时准备N个机器学习模型;工序(b),取得作为对象印刷介质的分光反射率的对象分光数据;工序(c),通过利用N个机器学习模型来执行对象分光数据的等级分类处理,而对对象印刷介质的种类进行判别。
Description
技术领域
本公开涉及一种利用机器学习模型来执行印刷介质的判别处理的方法以及系统。
背景技术
在专利文献1中,公开了一种利用介质检测传感器来对印刷介质进行检测、并对与可由介质检测传感器取得的属性信息相关联的介质的印刷设定进行选择的技术。介质检测传感器由光学式传感器构成。
但是,在专利文献1中,由于光学式的介质检测传感器的检测结果根据是否在固定的容许范围内来进行判定,因此,存在无法对光学特性相似的印刷介质彼此进行判别的问题。
此外,虽然在专利文献2中,提出了利用机器学习模型而对在打印机等记录装置中所使用的多个种类的印刷介质进行判别的技术,但未对被累积的教师数据是否学习完毕进行管理,存在改善的余地。详细而言,虽然记载了也可以在累积了既定量的教师数据后以任意的定时而被执行的情况,但未对是否学习完毕进行管理。也就是说,谋求能够对被累积的数据是否学习完毕进行识别的技术。
此外,未对判别器的判别精度进行管理,而存在改善的余地。详细而言,虽然记载了在该机器学习处理中介质数据与印刷介质的种类之间的对应关系初始不准确而在机器学习的过程中被优化的情况,但未发现与判别器的判别精度相关的记載。也就是说,谋求可掌握判别器的判别精度的技术。
专利文献1:日本特开2019-55554号公报
专利文献2:日本特开2020-121503号公报
发明内容
本申请的利用机器学习模型来执行印刷介质的判别处理的方法包含:工序(a),当将N设为1以上的整数时准备N个机器学习模型,其中,所述N个机器学习模型各自被构成为,通过将作为印刷介质的分光反射率的输入分光数据分类为多个等级的任意一个,而对所述印刷介质的种类进行判别;工序(b),取得作为对象印刷介质的分光反射率的对象分光数据;工序(c),通过利用所述N个机器学习模型来执行所述对象分光数据的等级分类处理,而对所述对象印刷介质的种类进行判别。
本申请的利用机器学习模型来执行印刷介质的判别处理的系统具备:存储器,其在将N设为1以上的整数时对N个机器学习模型进行存储;处理器,其利用所述N个机器学习模型,来执行所述判别处理。所述N个机器学习模型各自被构成为,通过将作为印刷介质的分光反射率的输入分光数据分类为多个等级的任意一个,而对所述印刷介质的种类进行判别。所述处理器被构成为执行第一处理和第二处理,所述第一处理取得对象印刷介质的对象分光数据,所述第二处理通过利用所述N个机器学习模型来执行所述对象分光数据的等级分类处理,而对所述对象印刷介质的种类进行判别。
本申请的记录装置具备:存储部,其对与记录介质的物理信息和所述记录介质的类别信息相应的记录参数进行存储;记录部,其基于所述记录参数而实施记录;学习部,其获得利用所述记录介质的物理信息和所述记录介质的类别信息来进行机器学习的判别器;学习状态判定部,其对是否为在所述判别器的所述机器学习中所使用的所述记录介质进行判定。
本申请的记录介质的判别方法为利用机器学习模型来实施记录介质的判别处理的判别方法,当将N设为1以上的整数时,具有N个机器学习模型,针对所述N个机器学习模型的每一个,包含如下的情况,即,获得利用所述记录介质的物理特性和所述记录介质的类别信息而进行所述机器学习的判别器;对所述记录介质是否为在所述机器学习中使用的所述记录介质进行判定;显示所述判定结果。
本申请的记录系统具备学习部和精度评价部,所述学习部获得利用记录介质的物理特性和所述记录介质的类别信息而进行机器学习的判别器,所述精度评价部获得所述判别器的判别精度。
本申请的判别精度的确认方法为使用了机器学习模型的记录介质的判别处理中的判别精度的确认方法,当将N设为1以上的整数时,具有N个机器学习模型,针对所述N个机器学习模型的每一个,包含如下的情况,即,获得利用所述记录介质的物理特性和所述记录介质的类别信息来进行机器学习的判别器;利用与在所述机器学习中所使用的所述记录介质的物理特性不同的精度评价用数据而获得所述判别精度;显示所述判别精度。
附图说明
图1为实施方式中的印刷系统的概要结构图。
图2为印刷装置的概要结构图。
图3为信息处理装置的框图。
图4为表示第一机器学习模型的结构的说明图。
图5为表示第二机器学习模型的结构的说明图。
图6为表示准备工序的处理步骤的流程图。
图7为表示介质标识符列表的说明图。
图8为表示印刷设定表的说明图。
图9为表示被聚类处理后的分光数据的说明图。
图10为表示组管理表的说明图。
图11为表示特征光谱的说明图。
图12为表示已知特征光谱组的结构的说明图。
图13为表示介质判别/印刷工序的处理步骤的流程图。
图14为表示介质追加处理的处理步骤的流程图。
图15为表示分光数据组的管理状态的说明图。
图16为表示根据印刷介质的追加而被更新后的介质标识符列表的说明图。
图17为表示根据印刷介质的追加而被更新后的组管理表的说明图。
图18为表示根据机器学习模型的追加而被更新后的组管理表的说明图。
图19为表示介质排除工序的处理步骤的流程图。
图20为表示机器学习模型的更新处理的处理步骤的流程图。
图21为表示印刷介质的设定画面的一个示例的图。
图22为表示印刷介质的追加设定画面的一个示例的图。
图23为表示印刷介质的设定画面的一个示例的图。
图24为表示印刷介质的设定画面的一个示例的图。
图25为表示印刷介质的设定时的确认画面的一个示例的图。
图26为表示学习中的判别精度的变化的画面的一个示例的图。
图27为表示印刷介质的设定时的确认画面的一个示例的图。
图28为表示印刷介质的设定画面的一个示例的图。
图29为表示判别器的判别历史的画面的一个示例的图。
具体实施方式
实施方式1
印刷系统的概要
图1为表示一个实施方式中的印刷系统的概要结构图。图2为印刷装置的概要结构图。
作为记录系统的印刷系统100由作为记录部的打印机10、信息处理装置20、分光测量仪30等构成。分光测量仪30针对在打印机10中所使用的作为记录介质的印刷介质PM,能够通过在未印刷的状态下实施分光测量而取得作为物理信息的分光反射率。在本公开中,将分光反射率也称为“分光数据”。分光测量仪30例如具备波长可变干涉光谱滤波器和单色图像传感器。由分光测量仪30获得的分光数据作为向后述的机器学习模型输入的输入数据而被使用。如后文所述,信息处理装置20利用机器学习模型而执行分光数据的等级分类处理,并对印刷介质PM属于多个等级中的哪一个等级进行分类。“印刷介质PM的等级”是指印刷介质PM的种类。信息处理装置20以在与印刷介质PM的种类相应的适当的印刷条件下执行印刷的方式对打印机10进行控制。在优选例中,信息处理装置20使用容易携带的笔记本型PC。此外,在印刷介质PM中,也包含印刷介质被卷绕在卷筒状的芯材上的卷筒介质。另外,虽然在本实施方式中,作为记录的一个示例,列举了印刷,但能够应用于需要根据介质的物理信息而对记录条件进行变更的、包含定影的广义的记录系统、装置、方法中。
虽然在上述内容中,打印机10、信息处理装置20和分光测量仪30作为独立的结构而进行了说明,但未限定于该结构,只要为具备这些功能的结构即可。例如,如图2所示,也可以为在作为记录装置的印刷装置110内装入信息处理装置20和分光测量仪30的结构。
详细而言,印刷装置110由信息处理装置20、作为记录部的印刷机构11、分光测量仪30、印刷介质保持器40等构成。在印刷介质保持器40中,收纳有印刷介质PM,分光测量仪30实施被收纳于印刷介质保持器40中的印刷介质PM的分光测量,从而取得分光光谱数据。印刷机构11为与打印机10所具备的印刷机构相同的印刷机构。在优选例中,信息处理装置20为具备触摸面板的平板型PC,在使显示部150露出的状态下,被装入至印刷装置110中。这样的印刷装置110以与印刷系统100相同的方式发挥功能。
信息处理装置的概要
图3为表示信息处理装置20的功能的框图。
信息处理装置20具有处理器105、存储部120、接口电路130、与接口电路130连接的输入器件140以及显示部150。在接口电路130上,也连接有分光测量仪30和打印机10。此外,接口电路130通过有线或无线而与网络NW连接。网络NW也与云环境连接。
虽然未被限定,但例如,处理器105不仅具有执行以下详述的处理的功能,还具有在显示部150上显示通过该处理而获得的数据、以及在该处理的过程中被生成的数据的功能。
处理器105作为执行使用了打印机10的印刷处理的印刷处理部112而发挥功能,此外,作为执行印刷介质PM的分光数据的等级分类处理的等级分类处理部114而发挥功能,也作为创建适于印刷介质PM的印刷设定的印刷设定创建部116而发挥功能。而且,处理器105也作为获得利用印刷介质PM的物理信息和类别信息而进行了机器学习的判别器的学习部117而发挥功能,也作为对与判别器相关的信息进行管理的判别器管理部118而发挥功能。另外,关于判别器,将在后文叙述。
这些印刷处理部112、等级分类处理部114、印刷设定创建部116、学习部117、判别器管理部118通过处理器105执行被存储于存储部120中的计算机程序,从而被实现。在优选例中,处理器105被构成为,具备一个或多个处理器。另外,也可以通过硬件电路来实现上述各部。本实施方式的处理器为也包含这样的硬件电路的术语。
此外,执行等级分类处理的处理器也可以为,经由包含云环境的网络NW而与信息处理装置20连接的远程计算机所包括的处理器。
存储部120在优选例中被构成为,包括RAM(Random Access Memory,随机存取存储器)以及ROM(Read Only Memory,只读存储器)。另外,也可以具备HDD(Hard Disk Drive,硬盘驱动器)。
在存储部120中,还存储有与印刷介质PM的物理信息和类别信息相应的印刷参数、用于供用户在追加新的印刷介质时实施操作输入的GUI(Graphical User Interface,图形用户界面)用的设定画面等的图像数据、在印刷介质的追加等的管理中所使用的印刷介质管理程序等。作为记录参数的印刷参数例如包含油墨喷出量、用于干燥油墨的加热器的温度、干燥时间、介质输送速度、包含输送机构中的介质张力的输送参数等。而且,打印机10、印刷机构11基于印刷参数而实施印刷。此外,在存储部120中,还存储有判别器的判别精度的精度评价用数据。另外,关于精度评价用数据,将在后文叙述。
而且,在存储部120中,存储有多个机器学习模型201、202、多个分光数据组SD1、SD2、介质标识符列表IDL、多个组管理表GT1、GT2、多个已知特征光谱组KS1、KS2、印刷设定表PST。机器学习模型201、202被使用于由等级分类处理部114实施的运算中。关于机器学习模型201、202的结构例或动作,将在后文叙述。分光数据组SD1、SD2为,在机器学习模型201、202的学习中被使用的带标签的分光数据的集合。介质标识符列表IDL为,针对各个印刷介质而登记有介质标识符和分光数据的列表。多个组管理表GT1、GT2为表示分光数据组SD1、SD2的管理状态的表。已知特征光谱组KS1、KS2为,在将教师数据再次输入至学习完毕的机器学习模型201、202中时所获得的特征光谱的集合。关于特征光谱,将在后文叙述。印刷设定表PST为,登记有适于各个印刷介质的印刷设定的表。
机器学习模型的结构
图4为表示第一机器学习模型201的结构的说明图。该机器学习模型201从输入数据IM的一侧起依次具备卷积层211、初级矢量神经元层221、第一卷积矢量神经元层231、第二卷积矢量神经元层241、和分类矢量神经元层251。这五个层211~251中的卷积层211为最下位的层,分类矢量神经元层251为最上位的层。在以下的说明中,也将层211~251分别称为“Conv层211”、“PrimeVN层221”、“ConvVN1层231”、“ConvVN2层241”、以及“ClassVN层251”。
在本实施方式中,输入数据IM由于为分光数据,因此,为一维数组的数据。例如,输入数据IM为,从380nm~730nm的范围的分光数据中每隔10nm而提取出36个代表值所获得的数据。
在图4的示例中,使用了两个卷积矢量神经元层231、241,但卷积矢量神经元层的数量可以是任意的,也可以省略卷积矢量神经元层。但是,优选为,使用一个以上的卷积矢量神经元层。
图4的机器学习模型201还具有生成相似度的相似度运算部261。相似度运算部261能够根据ConvVN1层231、ConvVN2层241、ClassVN层251的输出,分别对后述的相似度S1_ConvVN1、S1_ConvVN2、S1_ClassVN进行计算。但是,也可以省略相似度运算部261。
各个层211~251的结构能够记述如下。
<第一机器学习模型201的结构的记述>
·Conv层211:Conv[32,6,2]
·PrimeVN层221:PrimeVN[26,1,1]
·ConvVN1层231:ConvVN1[20,5,2]
·ConvVN2层241:ConvVN2[16,4,1]
·ClassVN层251:ClassVN[n1+1,3,1]
·矢量维度VD:VD=16
在这些各个层211~251的记述中,括号前的字符串为层名,括号内的数字依次为通道数、内核尺寸以及步长。例如,Conv层211的层名为“Conv”,通道数为32,内核尺寸为1×6,步长为2。在图4中,在各个层的下方示出了这些记述。在各个层中被描绘出的带阴影线的矩形表示在对邻接的上位层的输出矢量进行计算时所使用的内核。在本实施方式中,由于输入数据IM为一维数组的数据,因此,内核也具有一维的数组。另外,在各个层211~251的记述中所使用的参数的值为例示,并能够任意地进行变更。
Conv层211为由标量神经元构成的层。其他的四个层221~251为由矢量神经元构成的层。矢量神经元为将矢量设为输入输出的神经元。在上述的记述中,各个矢量神经元的输出矢量的维度为16且固定。以下,作为标量神经元以及矢量神经元的上位概念,使用“节点”这一词语。
在图4中,关于Conv层211,示出了对节点数组的平面坐标进行规定的第一轴x以及第二轴y、和表示纵深的第三轴z。此外,示出了Conv层211的x、y、z方向的尺寸为1、16、32的情况。将x方向的尺寸和y方向的尺寸称为“分辨率”。在本实施方式中,x方向的分辨率总是为1。z方向的尺寸为通道数。这三个轴x、y、z在其他的层中也作为表示各个节点的位置的坐标轴来使用。但是,在图4中,在Conv层211以外的层中,省略了这些轴x、y、z的图示。
如熟知的那样,卷积后的y方向的分辨率W1通过下式而被给出。
W1=Ceil{(W0-Wk+1)/S}
在此,W0为卷积前的分辨率,Wk为内核尺寸,S为步长,Ceil{X}为实施对X进行尾数进位的运算的函数。
图4所示的各个层的分辨率为,将输入数据IM的y方向的分辨率设为36的情况下的示例,实际的各个层的分辨率根据输入数据IM的尺寸而被适当地变更。
ClassVN层251具有n1个通道。相似度运算部261具有一个通道。在图4的示例中,(n1+1)=11。从ClassVN层251的通道中,输出相对于多个已知等级的判定值Class1-1~Class1-10,从相似度运算部261的通道中,输出表示是未知等级的情况的判定值Class1-UN。具有这些判定值Class1-1~Class1-10、Class1-UN中的最大值的等级相当于输入数据IM所属的等级。一般而言,n1为2以上的整数,且为能够利用第一机器学习模型201进行分类的已知的等级数。在任意的一个机器学习模型中,优选为,针对能够分类的已知的等级数,预先设定上限值nmax和下限值nmin。
另外,也可以省略表示是未知等级的情况的判定值Class1-UN。在该情况下,在相对于已知等级的判定值Class1-1~Class1-10中的最大值小于被预先规定的阈值的情况下,判定为,输入数据IM的等级未知。
图5为表示第二机器学习模型202的结构的说明图。该机器学习模型202与第一机器学习模型201同样地具有Conv层212、PrimeVN层222、ConvVN1层232、ConvVN2层242、ClassVN层252、相似度运算部262。
各个层212~252的结构能够记述如下。
<第二机器学习模型202的结构的记述>
·Conv层212:Conv[32,6,2]
·PrimeVN层222:PrimeVN[26,1,1]
·ConvVN1层232:ConvVN1[20,5,2]
·ConvVN2层242:ConvVN2[16,4,1]
·ClassVN层252:ClassVN[n2+1,3,1]
·矢量维度VD:VD=16
如若对图4和图5进行比较则可理解的那样,第二机器学习模型202的层212~252中的下位的四个层212~242具有与第一机器学习模型201的层211~241相同的结构。另一方面,第二机器学习模型202的最上位层252仅通道数与第一机器学习模型201的最上位层251不同。在图5的示例中,ClassVN层252具有n2个通道,相似度运算部262具有一个通道,(n2+1)=7。从ClassVN层252的通道中,输出相对于多个已知等级的判定值Class2-1~Class2-6,从相似度运算部262的通道中,输出表示是未知等级的情况的判定值Class2-UN。在第二机器学习模型202中也优选为,针对已知等级的数,设定与第一机器学习模型201相同的上限值nmax以及下限值nmin。
第二机器学习模型202被构成为,具有与第一机器学习模型201不同的至少一个已知的等级。此外,在第一机器学习模型201和第二机器学习模型202中,由于可分类的等级不同,因此,内核的要素的值也互不相同。在本公开中,当将N设为2以上的整数时,N个机器学习模型中的任意一个机器学习模型被构成为,具有与其他的机器学习模型不同的至少一个已知的等级。另外,虽然在本实施方式中,将机器学习模型的个数N设为2以上,但本公开也能够应用于仅使用一个机器学习模型的情况中。
机器学习模型的准备工序
图6为表示机器学习模型的准备工序的处理步骤的流程图。该准备工序例如为由打印机10的制造商执行的工序。
在步骤S10中,将多个初始印刷介质的分光数据作为初始分光数据来生成。在本实施方式中,准备工序中的在机器学习模型的学习中所使用的初始印刷介质全部为任意印刷介质。在本公开中,“任意印刷介质”是指,能够成为由机器学习模型执行的等级分类处理的对象的印刷介质,且即使不存在用户的排除指示也能够从等级分类处理的对象中排除的印刷介质。另一方面,在后述的介质追加处理中所追加的印刷介质为,只要没有用户的排除指示则不能从等级分类处理的对象中排除的必要印刷介质。但是,也可以将初始印刷介质的一部分或全部设为必要印刷介质。
在步骤S10中,关于多个初始印刷介质,通过在未印刷的状态下由分光测量仪30执行分光测量,而生成初始分光数据。此时,考虑到分光反射率的偏差,优选为,执行数据扩展。一般而言,分光反射率通过测色仪或测量仪而产生偏差。数据扩展为,为了对这样的偏差进行模拟,通过向被测量出的分光数据赋予随机的偏差而生成多个分光数据的处理。另外,也可以设为,不实施实际的印刷介质的分光测量,而虚拟地生成初始分光数据。在该情况下,初始印刷介质也成为虚拟的介质。
在步骤S20中,关于多个初始印刷介质,创建了介质标识符列表IDL。图7为表示介质标识符列表IDL的说明图。在介质标识符列表IDL中,登记有向各个印刷介质赋予的介质标识符、介质名称、数据子编号、分光数据。在该示例中,针对16个印刷介质,赋予“A-1”~“A-16”的介质标识符。介质名称为,在用于供用户对印刷条件进行设定的窗上被显示的印刷介质的名称。数据子编号为,用于对与相同的印刷介质相关的多个分光数据进行区分的编号。在该示例中,关于各个印刷介质,分别登记有三个分光数据。但是,相对于各个印刷介质的分光数据的数量也可以不同。关于各个印刷介质,虽然只要登记有一个以上的分光数据即可,但优选为,登记有多个分光数据。
在图6的步骤S30中,关于多个初始印刷介质,分别创建印刷设定,并登记在印刷设定表PST中。图8为表示印刷设定表PST的说明图。在印刷设定表PST的各个记录中,关于各个印刷介质,登记有介质标识符和印刷设定。在该示例中,作为印刷设定,登记有打印机特性文件PR1~PR16、介质输送速度FS1~FS16、干燥时间DT1~DT16。介质输送速度FS1~FS16、干燥时间DT1~DT16为前述的印刷参数的一部分。打印机特性文件PR1~PR16为打印机10的输出用色彩特性文件,并针对每个印刷介质而被创建。具体而言,能够利用打印机10,在印刷介质上以不进行颜色补正的方式对测试图进行印刷,并用分光测量仪30对该测试图进行分光测量,并通过印刷设定创建部116处理该分光测量结果,而创建打印机特性文件。介质输送速度FS1~FS16和干燥时间DT1~DT16也能够分别实验性地决定。另外,“干燥时间”是指,在位于打印机10内的未图示的干燥机中对印刷后的印刷介质进行干燥的时间。在通过向印刷后的印刷介质吹送风而干燥的类型的打印机中,“干燥时间”为送风时间。此外,在不具有干燥机的打印机中,“干燥时间”为自然干燥的待机时间。另外,虽然作为印刷设定,也可以设定除了这些内容以外的初始项目,但优选为,创建至少包含打印机特性文件的印刷设定。
在图6的步骤S40中,通过对关于多个初始印刷介质的多个初始分光数据进行聚类处理,从而执行分组。图9为表示通过聚类处理而被分组的分光数据的说明图。在该示例中,多个分光数据被分组为第一分光数据组SD1和第二分光数据组SD2。作为聚类处理,例如,能够使用k平均法。分光数据组SD1、SD2具有以各自的分光数据组SD1、SD2的中心为代表的代表点G1、G2。这些代表点G1、G2例如为重心。在分光数据由m个波长中的反射率构成的情况下,通过将一个分光数据理解为表示m维空间的一个点的数据,从而能够对分光数据彼此之间的距离、或多个分光数据的重心进行计算。虽然在图9中,为了便于图示,在二维空间中描绘了多个分光数据的点,但实际上,分光数据能够作为m维空间的点来体现。在如后文所述将新的印刷介质作为等级分类处理的对象来追加的情况下,在对该追加印刷介质的分光数据距多个分光数据组SD1、SD2中的哪一个最近进行判定时,使用了这些代表点G1、G2。另外,作为代表点G1、G2,也可以使用重心以外的点。例如,关于属于1组的多个分光数据,也可以求出各个波长中的反射率的最大值和最小值的平均值,并将由这些平均值构成的分光数据作为代表点来使用。
虽然在本实施方式中,多个分光数据被分组为两个分光数据组SD1、SD2,但分光数据组也可以仅为一个,或者,也可以创建三个以上的分光数据组。此外,也可以通过聚类处理以外的方法来创建多个分光数据组。但是,如果通过聚类处理来对多个分光数据进行分组,则能够将彼此近似的分光数据汇总为相同的组。如果利用这样的多个分光数据组的每一个来实施多个机器学习模型的学习,则与不进行聚类处理的情况相比,能够提高由机器学习模型而执行的等级分类处理的精度。
另外,在通过聚类处理而被分组后,即使追加新的印刷介质的分光数据,也能够维持为与通过聚类处理而被分组的状态等效的状态。
在图6的步骤S50中,创建了组管理表GT1、GT2。图10为表示组管理表GT1、GT2的说明图。在组管理表GT1、GT2的各个记录中,关于一个分光数据,登记有组编号、介质标识符、数据子编号、距代表点的距离、模型编号、等级标签、现存区域、代表点的坐标。组编号为,对多个组管理表GT1、GT2进行区分的编号。介质标识符和数据子编号被用来与图7中说明的介质标识符列表IDL同样地对各个分光数据进行区分。模型编号为,对利用该组的分光数据组来实施学习的机器学习模型进行识别的编号。在此,图4以及图5所示的两个机器学习模型201、202的符号“201”、“202”作为模型编号而被使用。“等级标签”为,与由机器学习模型执行的等级分类处理的结果相对应的值,也作为在分光数据被用作教师数据时的标签来使用。模型编号和等级标签针对每个介质标识符而被设定。“现存区域”表示分光数据属于教师用区域和避让用区域中的哪一个。“教师用区域”是指,该分光数据被实际使用于机器学习模型的学习中的情况。“避让用区域”是指,该分光数据未被使用于机器学习模型的学习中而处于从教师用区域避让的状态。在准备工序中,由于全部分光数据被使用于机器学习模型的学习中,因此,属于教师用区域。
在图6的步骤S60中,用户创建在等级分类处理中所使用的机器学习模型,并设定其参数。在本实施方式中,创建了图4和图5所示的两个机器学习模型201、202,并设定了它们的参数。但是,在步骤S60中,既可以仅创建一个机器学习模型,或者,也可以创建三个以上的机器学习模型。在步骤S70中,等级分类处理部114利用分光数据组SD1、SD2,执行机器学习模型201、202的学习。当完成学习时,学习完毕的机器学习模型201、202被保存于存储部120中。
在步骤S80中,等级分类处理部114再次向学习完毕的机器学习模型201、202输入分光数据组SD1、SD2,从而生成已知特征光谱组KS1、KS2。已知特征光谱组KS1、KS2为以下说明的特征光谱的集合。以下,主要对生成与机器学习模型201建立了对应的已知特征光谱组KS1的方法进行说明。
图11为,表示通过向学习完毕的机器学习模型201输入任意的输入数据而获得的特征光谱Sp的说明图。在此,对从ConvVN1层231的输出中获得的特征光谱Sp进行说明。图11的横轴为,通过ConvVN1层231的一个平面位置(x,y)中的节点的输出矢量的要素编号ND与通道编号NC的组合而表示的光谱位置。在本实施方式中,由于节点的矢量维度为16,因此,输出矢量的要素编号ND为0至15这16个。此外,由于ConvVN1层231的通道数为20,因此,通道编号NC为0至19这20个。
图11的纵轴表示各个光谱位置处的特征值CV。在该示例中,特征值CV为输出矢量的各个要素的值VND。另外,作为特征值CV,可以使用将输出矢量的各个要素的值VND和后述的激活值相乘而得到的值,或者,也可以原样使用激活值。在后者的情况下,特征光谱Sp所包含的特征值CV的数与通道数相等,为20个。另外,激活值为,相当于该节点的输出矢量的矢量长度的值。
相对于一个输入数据而从ConvVN1层231的输出中获得的特征光谱Sp的数量由于与ConvVN1层231的平面位置(x,y)的数量相等,因此,为1×6=6个。
同样地,相对于一个输入数据,从ConvVN2层241的输出中获得了三个特征光谱Sp,从ClassVN层251的输出中获得了一个特征光谱Sp。
相似度运算部261在教师数据被再次输入至学习完毕的机器学习模型201中时,对图11所示的特征光谱Sp进行计算,并登记在已知特征光谱组KS1中。
图12为表示已知特征光谱组KS1的结构的说明图。在该示例中,已知特征光谱组KS1包含从ConvVN1层231的输出中获得的已知特征光谱组KS1_ConvVN1、从ConvVN2层241的输出中获得的已知特征光谱组KS1_ConvVN2、从ClassVN层251的输出中获得的已知特征光谱组KS1_ConvVN1。
已知特征光谱组KS1_ConvVN1的各个记录包含记录编号、层名、标签Lb、已知特征光谱KSp。已知特征光谱KSp为,与根据教师数据的输入而获得的图11的特征光谱Sp相同的光谱。在图12的示例中,通过将分光数据组SD1输入至学习完毕的机器学习模型201,而从ConvVN1层231的输出中,生成并登记与各个标签Lb的值相关联的已知特征光谱KSp。例如,与标签Lb=1相关联,登记有N1_1max个的已知特征光谱KSp,与标签Lb=2相关联,登记有N1_2max个的已知特征光谱KSp,与标签Lb=n1相关联,登记有N1_n1max个的已知特征光谱KSp。N1_1max、N1_2max、N1_n1max分别为2以上的整数。如前文所述,各个标签Lb与互不相同的已知的等级相对应。因此,能够理解,已知特征光谱组KS1_ConvVN1中的各个已知特征光谱KSp与多个已知的等级中的一个等级相关联,并被登记。其他的已知特征光谱组KS1_ConvVN2、KS1_ConvVN1也是同样的。
另外,在步骤S80中所使用的分光数据组无需为与在步骤S70中所使用的多个分光数据组SD1、SD2相同的分光数据组。但是,具有如下的优点,即,即使在步骤S80中,也只要利用在步骤S70中所使用的多个分光数据组SD1、SD2的一部分或全部,就无需准备新的教师数据。也可以省略步骤S80。
由机器学习模型执行的介质判别/印刷工序
图13为,表示使用了学习完毕的机器学习模型的介质判别/印刷工序的处理步骤的流程图。该介质判别/印刷工序例如由使用打印机10的使用者来执行。
在步骤S210中,关于作为处理对象的印刷介质即对象印刷介质,对是否需要判别处理进行判断。在不需要判别处理的情况下、即对象印刷介质的种类已知的情况下,前进至步骤S280,选择适于对象印刷介质的印刷设定,在步骤S290中,利用对象印刷介质,执行印刷。另一方面,在对象印刷介质的种类不明而需要该判别处理的情况下,前进至步骤S220。
在步骤S220中,等级分类处理部114通过使分光测量仪30执行对象印刷介质的分光测量而取得对象分光数据。该对象分光数据成为由机器学习模型执行的等级分类处理的对象。
在步骤S230中,等级分类处理部114向现有的学习完毕的机器学习模型201、202输入对象分光数据,从而执行对象分光数据的等级分类处理。在该情况下,能够利用一个一个地依次使用多个机器学习模型201、202的第一处理方法、和同时使用多个机器学习模型201、202的第二处理方法中的任意一个处理方法。在第一处理方法中,首先,使用一个机器学习模型201,执行等级分类处理,在作为其结果而判定为对象分光数据属于未知的等级的情况下,使用其他的机器学习模型202,执行等级分类处理。在第二处理方法中,同时利用两个机器学习模型201、202,并行执行针对相同的对象分光数据的等级分类处理,等级分类处理部114将这些处理结果进行综合。根据本公开的发明人的实验,由于第二处理方法与第一处理方法相比,处理时间更短,因此更加优选。
在步骤S240中,等级分类处理部114根据步骤S230中的等级分类处理的结果,对对象分光数据属于未知的等级还是属于已知的等级进行判定。在对象分光数据属于未知的等级的情况下,由于对象印刷介质为不属于在准备工序中使用的多个初始印刷介质以及在后述的介质追加处理中被追加的印刷介质中的任意一个的、新的印刷介质,因此,前进至后述的步骤S300,执行介质追加处理。另一方面,在对象分光数据属于已知的等级的情况下,前进至步骤S250。
在步骤S250中,利用多个机器学习模型201、202中的、判断为对象分光数据属于已知的等级的一个机器学习模型,对与已知特征光谱组之间的相似度进行计算。例如,在通过第一机器学习模型201的处理而被判定为对象分光数据属于已知的等级的情况下,该相似度运算部261分别根据ConvVN1层231、ConvVN2层241、ClassVN层251的输出而对与已知特征光谱组KS1之间的相似度S1_ConvVN1、S1_ConvVN2、S1_ClassVN进行计算。另一方面,在通过第二机器学习模型202的处理而被判定为对象分光数据属于已知的等级的情况下,该相似度运算部262分别对与已知特征光谱组KS2之间的相似度S2_ConvVN1、S2_ConvVN2、S2_ClassVN进行计算。
以下,对根据第一机器学习模型201的ConvVN1层231的输出来计算相似度S1_ConvVN1的方法进行说明。
相似度S1_ConvVN1例如能够利用下式计算出。
S1_ConvVN1(Class)=max[G{Sp(i,j),KSp(Class,k)}]
在此,“Class”表示针对多个等级的序数,G{a,b}表示求出a和b的相似度的函数,Sp(i,j)表示根据对象分光数据而获得的全部的平面位置(i,j)处的特征光谱,KSp(Class,k)表示与ConvVN1层231和特定的“Class”相关联的全部的已知特征光谱,max[X]表示取X的最大值的逻辑运算。即,相似度S1_ConvVN1为,在ConvVN1层231的全部的平面位置(i,j)中的特征光谱Sp(i,j)的每一个、和与特定的等级相对应的全部的已知特征光谱KSp(k)的每一个之间被计算出的相似度中的最大值。这样的相似度S1_ConvVN1针对与多个标签Lb对应的多个等级的每一个而被求出。相似度S1_ConvVN1表示对象分光数据与各个等级的特征相似的程度。
与ConvVN2层241和ClassVN层251的输出相关的相似度S1_ConvVN2、S1_ClassVN也与相似度S1_ConvVN1同样地被生成。另外,虽然无需全部生成这三个相似度S1_ConvVN1、S1_ConvVN2、S1_ClassVN,但优选为,生成这些相似度中的一个以上。在本公开中,将在相似度的生成中所使用的层也称为“特定层”。
在步骤S260中,等级分类处理部114向用户提示在步骤S250中获得的相似度,用户对该相似度是否匹配等级分类处理的结果进行确认。由于相似度S1_ConvVN1、S1_ConvVN2、S1_ClassVN表示对象分光数据与各个等级的特征相似的程度,因此,能够从这些相似度S1_ConvVN1、S1_ConvVN2、S1_ClassVN的至少一个中对等级分类处理的结果的好坏进行确认。例如,在三个相似度S1_ConvVN1、S1_ConvVN2、S1_ClassVN中的至少一个未与等级分类处理的结果一致的情况下,能够判断为,两者不匹配。在其他的实施方式中,在三个相似度S1_ConvVN1、S1_ConvVN2、S1_ClassVN全部与等级分类处理的结果不一致的情况下,也可以判定为,两者不匹配。一般而言,在从多个特定层的输出中生成的多个相似度中的预先规定的数量的相似度与等级分类处理的结果不一致的情况下,也可以判定为,两者不匹配。另外,步骤S260的判定也可以由等级分类处理部114执行。此外,也可以省略步骤S250和步骤S260。
在相似度与等级分类处理的结果匹配的情况下,前进至步骤S270,等级分类处理部114根据等级分类处理的结果而对对象印刷介质的介质标识符进行判别。该处理例如通过参照图10所示的组管理表GT1、GT2而被实施。在步骤S280中,印刷处理部112根据介质标识符而对印刷设定进行选择。该处理通过参照图8所示的印刷设定表PST而被实施。在步骤S290中,印刷处理部112按照印刷设定来执行印刷。
在前述的步骤S260中,在判定为相似度与等级分类处理的结果不匹配的情况下,由于对象印刷介质为不属于在准备工序中使用的多个初始印刷介质以及在后述的介质追加处理中被追加的印刷介质中的任意一个的、新的印刷介质,因此,前进至以下说明的步骤S300。在步骤S300中,为了将新的印刷介质设为等级分类处理的对象,执行介质追加处理。由于在介质追加处理中实施机器学习模型的更新或追加,因此,可以认为,介质追加处理为,对机器学习模型进行准备的工序的一部分。
印刷介质的追加处理
图14为表示介质追加处理的处理步骤的流程图,图15为表示介质追加处理中的分光数据组的管理状态的说明图。在以下的说明中,将作为等级分类处理的对象而被追加的新的印刷介质称为“追加印刷介质”或“追加介质”。
在步骤S310中,等级分类处理部114从现有的机器学习模型201、202中对与追加印刷介质的分光数据最接近的机器学习模型进行搜索。“与追加印刷介质的分光数据最接近的机器学习模型”是指,在各个机器学习模型201、202的学习中所使用的教师数据组的代表点G1、G2、与追加印刷介质的分光数据之间的距离最小的机器学习模型。代表点G1、G2的每一个与追加印刷介质的分光数据之间的距离例如能够作为欧几里得距离而计算出。另外,将与追加印刷介质的分光数据之间的距离最小的教师数据组也称为“接近教师数据组”。
在步骤S320中,等级分类处理部114针对在步骤S310中被搜索到的机器学习模型,对相当于必要印刷介质的等级数是否达到了上限值进行判定。如前文所述,在本实施方式中,在准备工序中所使用的初始印刷介质为全部任意印刷介质,在准备工序以后被追加的印刷介质全部为必要印刷介质。在相当于必要印刷介质的等级数未达到上限值的情况下,前进至步骤S330,以追加了追加印刷介质的分光数据的教师数据来执行该机器学习模型的学习。图15的状态S1表示在前述的准备工序中在机器学习模型202的学习中所使用的分光数据组SD2的状态,状态S2表示在步骤S330中追加印刷介质的分光数据以作为必要印刷介质的分光数据而被追加的状态。在图15中,“任意介质”是指在准备工序中所使用的任意印刷介质的分光数据,“必要介质”是指,通过图14的介质追加处理而被追加的必要印刷介质的分光数据。“教师用区域”是指,该分光数据为在机器学习模型的学习中实际使用的教师数据。“避让用区域”是指,该分光数据未被使用于机器学习模型的学习中而是处于从教师用区域避让的状态。此外,在教师用区域中有空余的状态是指,该机器学习模型202的等级数未达到上限值的情况。由于在状态S1中,在机器学习模型202中相当于必要印刷介质的等级数未达到上限值,因此,追加印刷介质的分光数据被追加至教师用区域,从而成为状态S2,将属于该教师用区域的分光数据作为教师数据来使用,从而执行机器学习模型202的再次学习。在该再次学习中,也可以设为,仅被追加的分光数据作为教师数据而被使用。
图16表示图15的状态S2下的介质标识符列表IDL,图17表示状态S2下的第二分光数据组SD2用的组管理表GT2。在介质标识符列表IDL中,作为被追加的印刷介质的介质标识符,分配有“B-1”,并登记有其介质名称和分光数据。关于追加印刷介质的分光数据,也优选为,通过实施向被测量的分光数据赋予随机的偏差的数据扩展,而生成多个分光数据。在组管理表GT2中,针对介质标识符为B-1的被追加的印刷介质,登记有多个分光数据。与第二分光数据组SD2中的教师数据组相关的代表点G2包含被追加的分光数据,从而被再次计算。
当从图15的状态S2起进一步追加印刷介质时,转移至状态S3、状态S4、状态S5。在状态S2~状态S4中,也与状态S1相同,在机器学习模型202中相当于必要印刷介质的等级数未达到上限值,因此,执行步骤S330,在教师用区域中追加印刷介质的分光数据,从而执行机器学习模型202的再次学习。另外,在状态S3下,在机器学习模型202中,相当于必要印刷介质的等级数与相当于任意印刷介质的等级数之和达到上限值,在教师用区域中存在空余。因此,在从状态S3转变为状态S4的情况下,在步骤S330中,在教师用区域中追加作为必要印刷介质的追加印刷介质的分光数据,并且,从教师用区域删除任意印刷介质的分光数据。被删除的分光数据被避让在避让用区域中。将分光数据避让在避让用区域的原因在于,能够再次利用该分光数据。从教师用区域向避让用区域避让的任意印刷介质的分光数据优选为,选择距教师数据组的代表点的距离最大的分光数据。如果采用这样的方式,则能够减小教师数据彼此的距离,因此,能够提高等级分类处理的精度。
在图15的状态S5中,在机器学习模型202中,相当于必要印刷介质的等级数达到上限值。在该情况下,从步骤S320前进至步骤S340。在步骤S340中,等级分类处理部114搜索如下的机器学习模型,该机器学习模型为,属于与在步骤S310中被搜索到的机器学习模型相同的组,且相当于必要印刷介质的等级数未达到上限值的模型。在存在这样的机器学习模型的情况下,从步骤S350前进至步骤S360,以追加了追加印刷介质的分光数据的教师数据来执行该机器学习模型的学习。该处理与前述的步骤S330的处理相同。
在通过步骤S340中的搜索而未发现机器学习模型的情况下,从步骤S350前进至步骤S370,创建新的机器学习模型,并且,以包含追加印刷介质的分光数据在内的教师数据来执行新的机器学习模型的学习。该处理相当于图15的从状态S5变化为状态S6的处理。在状态S5中,在机器学习模型202中相当于必要印刷介质的等级数达到上限值,且不存在属于相同组的其他的机器学习模型。因此,通过步骤S370的处理,而如状态S6所示,创建了新的机器学习模型203,以包含作为新的必要印刷介质的追加印刷介质的分光数据在内的教师数据来执行新的机器学习模型的学习。此时,由于仅以追加印刷介质的分光数据来作为教师数据,是不充分的,因此,在避让用区域内避让的一个以上的任意印刷介质的分光数据也作为教师数据而被使用。如果采用这样的方式,则能够提高由新的机器学习模型203执行的等级分类处理的精度。
另外,也可以设为,省略上述的步骤S340~S360,在步骤S320中必要印刷介质的等级数与上限值相等的情况下,立即前进至步骤S370。
图18表示状态S6下的第二组用的组管理表GT2。介质标识符为A-1~A-6的印刷介质的分光数据为,在准备工序中所使用的任意印刷介质的分光数据。此外,介质标识符为B-1~B-11的印刷介质的分光数据为,在准备工序后被追加的必要印刷介质的分光数据。在该组管理表GT2中,登记有与属于相同组的两个机器学习模型202、203相关的分光数据的状态。关于机器学习模型202,与被追加的10个必要印刷介质相关的分光数据被收纳于教师用区域内,与六个任意印刷介质相关的分光数据被避让在避让用区域内。关于机器学习模型203,在教师用区域内收纳有与一个必要印刷介质相关的分光数据和与六个任意印刷介质相关的分光数据,避让用区域为空。使用被收纳于各个教师用区域内的分光数据,计算出各个机器学习模型202、203的教师数据组的代表点G2a、G2b。
另外,图14所示的介质追加处理也能够在现有的机器学习模型的数量为一个的情况下执行。现有的机器学习模型的数量为一个的情况是指,例如,未准备图5所示的第二机器学习模型202,而仅利用图4所示的第一机器学习模型201来执行图13的处理的情况。在该情况下,图14的步骤S370的处理成为,将第二机器学习模型202作为新的机器学习模型来追加的处理。这样,在仅使用第一机器学习模型201来执行的等级分类处理中判定为该输入数据属于未知的等级的情况下将第二机器学习模型202作为新的机器学习模型来追加的处理也能够理解为准备两个机器学习模型201、202的处理的一个示例。
当在步骤S330、S360、S370的任意一个中实施机器学习模型的更新或追加时,在步骤S380中,等级分类处理部114向被更新或追加的机器学习模型再次输入教师数据,从而生成已知特征光谱组。该处理由于与图13的步骤S230的处理相同,因此省略说明。在步骤S390中,印刷设定创建部116创建所追加的对象印刷介质的印刷设定。该处理由于与图6的步骤S30的处理相同,因此省略说明。
当以这样的方式结束图14的处理时,图13的处理也完毕。此后,以任意的定时再次执行图13的处理。
在上述的图14的处理中,步骤S310的处理相当于,对在N个机器学习模型的学习中所使用的N个教师数据组中的、具有与追加印刷介质的分光数据最近的代表点的接近教师数据组进行选择,并对利用该接近教师数据组而实施了学习的特定的机器学习模型进行选择的处理。如果实施这样的处理,则即使将追加印刷介质的分光数据追加至该接近教师数据组,也能够将追加后的教师数据组维持在与通过聚类处理而被分组的状态等效的状态。其结果为,能够提高由机器学习模型执行的等级分类处理的精度。
根据图14的处理,能够将新的印刷介质追加至等级分类处理的对象。另一方面,根据用户的指示,也能够将印刷介质从等级分类处理的对象中排除。
图19为,表示从等级分类处理的对象中将印刷介质排除的介质排除工序的处理步骤的流程图。在步骤S410中,等级分类处理部114从用户接收登记完毕印刷介质的排除指示。在步骤S420中,将排除对象印刷介质的分光数据从实施排除对象印刷介质的判别的机器学习模型的教师用区域中删除,并根据需要,将任意印刷介质的分光数据补充至教师用区域中。“根据需要”例如是指,该机器学习模型的等级数小于下限值的情况。例如,从图15的状态S5起,在接收到必要印刷介质的排除指示时,从机器学习模型202的教师用区域中删除必要印刷介质的分光数据。在假设将大量的必要印刷介质排除的情况下,机器学习模型202的等级数小于下限值。在该情况下,通过使任意印刷介质的分光数据从避让用区域移动至教师用区域,而补充作为教师数据的分光数据。其结果为,相当于被补充的分光数据的任意印刷介质作为机器学习模型202的等级而被追加。如果采用这样的方式,则能够防止由于机器学习模型202的等级数小于下限值而使等级分类处理的精度过度降低的情况。从避让用区域被补充至教师用区域的任意印刷介质的分光数据优选为,选择距教师数据组的代表点的距离最小的分光数据。如果采用这样的方式,则能够减小教师数据彼此的距离,因此,能够提高等级分类处理的精度。另外,介质标识符列表IDL、印刷设定表PST和组管理表GT1、GT2根据这样的分光数据的删除或移动而被适当地更新。
在步骤S430中,等级分类处理部114利用在步骤S420中被更新的教师数据,执行机器学习模型的再次学习。在步骤S440中,等级分类处理部114向再次学习的机器学习模型再次输入教师数据,从而生成已知特征光谱组。由于该处理与图13的步骤S230的处理相同,因此省略说明。如果执行如上的介质排除工序,则能够将必要印刷介质从机器学习模型的等级分类处理的对象中排除。
如以上的内容那样,在本实施方式中,当将N设为1以上的整数时,利用N个机器学习模型来执行等级分类处理,因此,能够精度良好地实施光学特性相似的印刷介质的判别。此外,如果利用两个以上的机器学习模型来执行等级分类处理,则与以一个机器学习模型而实施针对大量的等级的分类处理的情况相比,能够高速地执行处理。
机器学习模型的更新处理
图20为表示机器学习模型的更新处理的处理步骤的流程图。
在步骤S510中,对在现有的机器学习模型中是否存在等级数小于上限值的机器学习模型进行判定。在当将N设为2以上的整数时存在N个现有的机器学习模型的情况下,对其中是否存在等级数小于上限值的机器学习模型进行判定。但是,现有的机器学习模型的数量N也可以设为1。在本实施方式中,存在图4和图5所示的两个现有的机器学习模型201、202,第一机器学习模型201的等级数等于上限值,第二机器学习模型202的等级数小于上限值。在现有的机器学习模型中不存在等级数小于上限值的机器学习模型的情况下,前进至后述的步骤S540,追加新的机器学习模型。另一方面,在存在等级数小于上限值的机器学习模型的情况下,前进至步骤S520,更新该机器学习模型。
在步骤S520中,等级分类处理部114以针对等级数小于上限值的机器学习模型而增加一个其最上位层的通道数的方式对该机器学习模型进行更新。在本实施方式中,第二机器学习模型202的最上位层的通道数(n2+1)从3被变更为4。在步骤S530中,等级分类处理部114执行在步骤S520中更新的机器学习模型的学习。在进行该学习时,与至此所使用的第二机器学习模型202用的教师数据组TD2一起,在图13的步骤S220中所取得的对象分光数据作为新的教师数据而被使用。另外,作为新的教师数据,除了在步骤S220中取得的对象分光数据之外,优选为,还使用从相同的印刷介质PM的分光测量中得到的其他的多个分光光谱数据。因此,优选为,分光测量仪30被构成为,在一个印刷介质PM的多个位置处分别取得分光光谱数据。当以此方式使学习结束时,被更新的机器学习模型202成为具有与对象分光数据对应的已知的等级的机器学习模型。因此,利用被更新后的机器学习模型202,对该印刷介质PM的种类进行识别。
在步骤S540中,等级分类处理部114追加具有与对象分光数据对应的等级的新的机器学习模型,并设定其参数。优选为,该新的机器学习模型除了最上位层的通道数之外具有与图4所示的第一机器学习模型201相同的结构。优选为,该新的机器学习模型例如设为与图5所示的第二机器学习模型202同样地具有两个以上的已知等级。两个以上的已知等级中的一个为与对象分光数据相对应的等级。此外,优选为,两个以上的已知等级中的至少一个设为与现有的机器学习模型的至少一个的已知等级相同。将新的机器学习模型的一个等级设为与现有的机器学习模型的已知等级相同的情况通过如下方式而被实现,即,利用与为了该已知等级而在现有的机器学习模型的学习中所使用的教师数据相同的教师数据,实施新的机器学习模型的学习。在新的机器学习模型中设置两个以上的已知等级的原因在于,当将已知等级仅设为一个时,有可能无法以足够的精度而实施该学习。
作为在新的机器学习模型中采用的现有的机器学习模型的等级,例如,优选为,从以下的等级中选择。
(a)在现有的机器学习模型中的多个已知等级中,与对象分光数据相似度最高的光学光谱数据所对应的等级。
(b)在现有的机器学习模型中的多个已知等级中,与对象分光数据相似度最低的光学光谱数据所对应的等级。
(c)在现有的机器学习模型中的多个已知等级中,在图13的步骤S240中被误判别为对象分光数据所属的已知等级的等级。
其中,如果采用上述(a)或(c)的等级,则能够减少新的机器学习模型中的误判别。此外,如果采用上述(b)的等级,则能够缩短新的机器学习模型的学习时间。
在步骤S550中,等级分类处理部114执行所追加的机器学习模型的学习。在该学习中,在图13的步骤S220中取得的对象分光数据作为新的教师数据而被使用。此外,作为新的教师数据,除了在步骤S220中取得的对象分光数据之外,还使用从相同的印刷介质PM的分光测量中得到的其他的多个分光光谱数据。此外,在将新的机器学习模型的一个以上的等级设为与现有的机器学习模型的已知等级相同的情况下,还使用了为了该已知等级而在现有的机器学习模型的学习中使用的教师数据。
另外,当第二机器学习模型202的已知的等级的数达到上限值时,通过图20的步骤S540、S550而追加第三个机器学习模型。第四个以后的机器学习模型也相同。这样,在本实施方式中,当将N设为2以上的整数时,(N-1)个机器学习模型具有与上限值相等的数量的等级,其他的一个机器学习模型成为具有上限值以下的数量的等级的机器学习模型。此外,当利用N个机器学习模型而执行针对对象分光数据的等级分类处理时被判定为对象分光数据属于未知的等级之时,执行以下的任意一个处理。
(1)在其他的一个机器学习模型具有小于上限值的数量的等级的情况下,通过步骤S520、S530的处理,针对其他的一个机器学习模型,并通过执行使用了包含对象分光数据的教师数据的学习而追加针对对象分光数据的新的等级。
(2)在其他的一个机器学习模型具有与上限值相等的数量的等级的情况下,通过步骤S540、S550的处理而追加具有与对象分光数据相对应的等级的新的机器学习模型。
根据这些处理,在无法通过N个机器学习模型来良好地实现对象分光数据的等级分类的情况下,能够实施针对与该对象分光数据对应的等级的等级分类。
另外,图20所示的机器学习模型的更新处理也能够在现有的机器学习模型的数量为一个的情况下执行。现有的机器学习模型的数量为一个的情况是指,例如,未准备图5所示的第二机器学习模型202,仅使用图4所示的第一机器学习模型201来执行图13的处理的情况。在该情况下,图20的步骤S540、S550成为将第二机器学习模型202作为新的机器学习模型来追加的处理。这样,在仅使用第一机器学习模型201来实施的等级分类处理中,在被判定为该输入数据属于未知的等级的情况下将第二机器学习模型202作为新的机器学习模型来追加的处理也能够理解为准备两个机器学习模型201、202的处理的一个示例。
在步骤S560中,等级分类处理部114将教师数据再次输入至更新或追加的机器学习模型中,从而生成已知特征光谱组。
如以上的内容那样,在本实施方式中,当将N设为2以上的整数时,由于使用N个机器学习模型来执行等级分类处理,因此,与以一个机器学习模型来实施针对大量的等级的分类处理的情况相比,能够高速地执行处理。此外,在现有的机器学习模型中无法良好地实现被分类数据的等级分类的情况下,通过在现有的机器学习模型中追加等级、或追加新的机器学习模型,而能够实施针对与该被分类数据对应的等级的等级分类。
另外,虽然在上述内容中,使用了使用矢量神经元的矢量神经网络型的机器学习模型,但代之也可以使用如通常的卷积神经网络那样使用标量神经元的机器学习模型。但是,矢量神经网络型的机器学习模型在与使用标量神经元的机器学习模型相比等级分类处理的精度更高这一点上,较为优选。
机器学习模型的各个层的输出矢量的运算方法
图4所示的第一机器学习模型201中的各个层的输出的运算方法如下。第二机器学习模型202也是同样的。
PrimeVN层221的各个节点将Conv层211的1×1×32个的节点的标量输出视为32维的矢量,并通过将该矢量乘以转换矩阵,从而获得该节点的矢量输出。该转换矩阵为1×1的内核的要素,并通过机器学习模型201的学习而被更新。另外,也能够将Conv层211和PrimeVN层221的处理统一,从而构成为一个初级矢量神经元层。
当将PrimeVN层221称为“下位层L”且将与其上位侧邻接的ConvVN1层231称为“上位层L+1”时,上位层L+1的各节点的输出利用下式而被决定。
数学式1
[Math.1]
uj=∑ivij (3)
aj=F(||uj||) (4)
在此,
MLi为下位层L中的第i个节点的输出矢量,
ML+1j为上位层L+1中的第j个节点的输出矢量,
vij为输出矢量ML+1j的预测矢量,
WLij为用于从下位层L的输出矢量MLi中计算出预测矢量vij的预测矩阵,
uj为作为预测矢量vij的和、即线性组合的和矢量,
aj为通过使和矢量uj的范数|uj|归一化而得到的归一化系数即激活值,
F(X)为使X归一化的归一化函数。
作为归一化函数F(X),例如能够使用以下的(4a)式或(4b)式。
数学式2
[Math.2]
在此,
k为相对于上位层L+1的全部节点的序数,
β为作为任意的正系数的调整参数,例如β=1。
在上述(4a)式中,通过针对上位层L+1的全部节点而将和矢量uj的范数|uj|以归一化指数(softmax)函数来归一化,从而得到激活值aj。另一方面,在(4b)式中,通过将和矢量uj的范数|uj|除以与上位层L+1的全部节点相关的范数|uj|的和,从而得到激活值aj。另外,作为归一化函数F(X),也可以使用(4a)式或(4b)式以外的其他的函数。
上述(3)式的序数i为,出于方便而被分配给为了决定上位层L+1中的第j个节点的输出矢量ML+1j而被使用的下位层L的节点的数,取1~n的值。此外,整数n为,为了决定上位层L+1中的第j个节点的输出矢量ML+1j而被使用的下位层L的节点的数。因此,整数n以下式而被给出。
n=Nk×Nc (6)
在此,Nk为内核的要素数,Nc为作为下位层的PrimeVN层221的通道数。在图4的示例中,由于Nk=3、Nc=26,因此,n=78。
为了求出ConvVN1层231的输出矢量而被使用的一个内核具有将内核尺寸1×3设为表面尺寸、且将下位层的通道数26设为深度的1×3×26=78个要素,这些要素分别为预测矩阵WLij。此外,为了生成ConvVN1层231的20个通道的输出矢量,需要20组该内核。因此,为了求出ConvVN1层231的输出矢量而被使用的内核的预测矩阵WLij的数量为78×20=1560个。这些预测矩阵WLij通过机器学习模型201的学习而被更新。
由上述(2)~(5)式可知,上位层L+1的各个节点的输出矢量ML+1j通过以下的运算而被求出。
(a)将下位层L的各个节点的输出矢量MLi乘以预测矩阵WLij,从而求出预测矢量vij;
(b)求出作为从下位层L的各个节点中获得的预测矢量vij的和、即线性组合的和矢量uj;
(c)通过使和矢量uj的范数|uj|归一化而求出作为归一化系数的激活值aj;
(d)将和矢量uj除以范数|uj|,进而乘以激活值aj。
另外,激活值aj为,通过针对上位层L+1的全部节点而使范数|uj|归一化从而得到的归一化系数。因此,激活值aj可以考虑为表示上位层L+1内的全部节点中的各个节点的相对的输出强度的指标。以(4)式、(4a)式、(4b)式以及(5)式而被使用的范数为,在典型的示例中表示矢量长度的L2范数。此时,激活值aj相当于输出矢量ML+1j的矢量长度。激活值aj由于仅被使用在上述的(4)式和(5)式中,因此,无需被从节点输出。但是,也能够以将激活值aj输出至外部的方式构成上位层L+1。
矢量神经网络的结构与胶囊网络的结构大致相同,矢量神经网络的矢量神经元相当于胶囊网络的胶囊。但是,在矢量神经网络中所使用的上述的(2)~(5)式的运算与在胶囊网络中所使用的运算不同。两者的最大的不同在于,在胶囊网络中,在上述(3)式的右边的预测矢量vij上分别乘以权重,该权重通过反复执行多次动态路由而被搜索。另一方面,在本实施方式的矢量神经网络中,由于通过依次对上述的(2)~(5)式进行一次计算而得到输出矢量ML+1j,因此,具有无需反复执行动态路由从而运算更为高速的优点。此外,本实施方式的矢量神经网络与胶囊网络相比,运算所需的内存量少于胶囊网络,根据本公开的发明人的实验,还具有大约1/2~1/3的内存量即可这样的优点。
在使用将矢量设为输入输出的节点这一点上,矢量神经网络与胶囊网络相同。因此,使用矢量神经元的优点也是与胶囊网络共同的。此外,多个层211~251呈现越趋向上位则越大的区域的特征、且越趋向下位则越小的区域的特征这一点与通常的卷积神经网络相同。在此,“特征”是指,向神经网络输入的输入数据所包含的特征性的部分。在矢量神经网络或胶囊网络中,在某个节点的输出矢量包含表示该节点所呈现的特征的空间的信息的空间信息这一点上,优于通常的卷积神经网络。即,某个节点的输出矢量的矢量长度表示该节点所呈现的特征的存在概率,矢量方向表示该特征的方向、尺度等空间信息。因此,属于相同的层的两个节点的输出矢量的矢量方向表示各自的特征的位置关系。或者,也可以说,该两个节点的输出矢量的矢量方向表示特征的变化。例如,如果是与“眼睛”的特征对应的节点,则输出矢量的方向能够表示眼睛的细度、提升方式等变化。在通常的卷积神经网络中,据说,通过池化处理而使特征的空间信息消失。其结果为,矢量神经网络或胶囊网络与通常的卷积神经网络相比,具有对输入数据进行识别的性能优异这样的优点。
矢量神经网络的优点也能够以如下的方式进行考虑。即,具有如下的优点,在矢量神经网络中,节点的输出矢量将输入数据的特征作为连续空间内的坐标来呈现。因此,能够以如果矢量方向较近、则特征近似这样的方式对输出矢量进行评价。此外,还具有即使输入数据所包含的特征无法被教师数据涵盖、也能够通过插值来对该特征进行判别等优点。另一方面,通常的卷积神经网络由于通过池化处理而发生混沌压缩,因此,具有无法将输入数据的特征作为连续空间内的坐标来呈现这样的缺点。
由于ConvVN2层241和ClassVN层251的各个节点的输出也利用上述的(2)~(5)式而被同样地决定,因此,省略详细的说明。作为最上位层的ClassVN层251的分辨率为1×1,通道数为(n1+1)。
ClassVN层251的输出被转换为针对已知的等级的多个判定值Class1-1~Class1-2、和表示是未知的等级的情况的判定值Class1-UN。这些判定值为,通常通过归一化指数函数而被归一化的值。具体而言,例如,通过执行如下的运算而得到针对各个等级的判定值,所述运算为,根据ClassVN层251的各个节点的输出矢量而计算出该输出矢量的矢量长度,进而,将各个节点的矢量长度以归一化指数函数来归一化。如上所述,在上述(4)式中得到的激活值aj为,相当于输出矢量ML+1j的矢量长度的值,并被归一化。因此,也可以输出ClassVN层251的各个节点的每一个处的激活值aj,在原有的状态下作为针对各个等级的判定值来使用。
虽然在上述的实施方式中,作为机器学习模型201、202,使用了通过上述(2)式~(5)式的运算而求出输出矢量的矢量神经网络,但也可以代之使用在美国专利第5210798号公报或国际公开2019/083553号公报中公开的胶囊网络。此外,也可以使用仅使用标量神经元的神经网络。
另外,已知特征光谱组KS1、KS2的生成方法、或ConvVN1层等的中间层的输出数据的生成方法并未被限定于上述实施方式,例如,也可以利用Kmeans算法(K均值聚类算法)来生成这些数据。此外,也可以利用PCA(Principal Component Analysis,主成分分析)或ICA(Independent Component Analysis,独立成分分析)、Fisher(Fisher DiscriminantAnalysis,Fisher判别分析)等的转换来生成这些数据。此外,已知特征光谱组KSG和中间层的输出数据的转换方法也可以不同。
新的印刷介质的追加/学习方式
图21为表示印刷介质的设定画面的一个示例的图。
图21为,使用印刷系统100(印刷装置110)的用户追加新的印刷介质或者在对印刷介质的学习状态进行确认时所使用的设定画面的一个示例的图。图21的作为第一画面的画面50a通过用户执行信息处理装置20的印刷介质管理程序而被显示在信息处理装置20的显示部150(例如,图1)上。虽然在上述内容中,对印刷系统100的内部的机器学习处理方法进行了说明,但在此,以GUI的设定画面为主体进行说明。
在图21的画面50a上,设置有印刷介质一览表51a、新追加按键52、学习按键53、判别器选择按键54等。另外,判别器是指,通过学习部117,并利用印刷介质PM的物理信息和类别信息,而使由机器学习模型实现的学习结束的学习组。例如,将通过学习部117并利用前述的图9的分光数据组SD1、SD2而使由图4、图5的机器学习模型201、202实现的学习执行完毕的学习组也称为判别器。
在印刷介质一览表51a上,一览显示有印刷介质的ID编号、作为印刷介质的名称的介质名称、学习的有无、学习日期时间。ID编号相当于前述的介质标识符。学习的有无为,显示相符的印刷介质的机器学习的学习状态的一栏,在机器学习已结束的情况下,被显示为“完毕”,在未实施学习的情况下,被显示为“未”。学习日期时间显示有实施了学习的日期时间。换言之,在信息处理装置20的显示部150上,显示有画面50a,所述画面50a为,显示包含印刷介质是否为在机器学习中所使用的印刷介质的学习状态的画面。
例如,在图21的画面50a中,列表显示有四个印刷介质,ID编号0001的介质A和ID编号0002的介质B以学习完毕的方式被显示。然后,学习日期时间也与介质A、介质B一起被显示。另一方面,ID编号0003的介质C成为未学习,ID编号0005的介质E也成为未学习,学习日期时间栏成为空栏。通过判别器管理部118(图3)作为学习状态判定部而发挥功能,从而对该学习的有无进行判定。另外,学习状态判定部的详细情况将在后文叙述。
新追加按键52为在追加新的印刷介质时所使用的操作按键。
学习按键53为用于对学习状态进行确认的操作按键。
判别器选择按键54为用于对相当于学习组的判别器进行选择的操作按键。
此外,在画面50a的左上方,显示有“G1:介质列表”。G1为判别器的识别编号,介质列表为印刷介质一览。在印刷介质一览表51a上,显示有与判别器1相关的印刷介质。
图22为表示印刷介质的追加设定画面的一个示例的图。
在追加新的印刷介质的情况下,按下画面50a的新追加按键52。当新追加按键52被执行操作时,切换设定画面,显示图22的画面55。
在画面切换的初始状态下,画面55的ID编号栏56、以及介质名称栏57一起成为空栏,能够成为可输入ID编号、介质名称的状态。图22的画面55表示用户向各个栏实施输入后的状态,并输入有ID编号:0004、介质名称:介质D。当ID编号以及介质名称被输入时,通过判别器管理部118(图3)来对被输入的ID编号0004的介质D的分光数据的记录是否存在于存储部120内进行确认。此时,判别器管理部118作为学习状态判定部而发挥功能。详细而言,判别器管理部118作为学习状态判定部而对与介质D相关的数据或学习历史进行确认。
在存在介质D的分光数据记录的情况下,如画面55所示,显示表示分光数据的坐标图58。另外,坐标图58的横轴为波长(nm),纵轴取反射率。此外,在不存在记录的情况下,能够通过对画面55的右侧的测色按键59进行操作,而通过分光测量仪30来对介质D的分光数据进行测色。在该情况下,需要预先将介质D安置在印刷介质保持器40上。
然后,在将介质D追加至“G1:介质列表”的情况下,对画面55下侧的追加按键60进行操作。在未追加的情况下,对取消按键61进行操作。另外,在按下取消按键61的情况下,取消在图21的画面50a中按下新追加按键52后的处理,返回至图21的画面50a。
在图22的画面55中,当追加按键60被按下时,切换至图23的画面50b。在图23的画面50b的印刷介质一览表51b中,利用ID编号0004,追加了介质D。学习日期时间栏成为空栏。这是因为,作为学习状态判定部的判别器管理部118判断为,确认了介质D的学习历史的结果为未学习。换言之,作为学习状态判定部的判别器管理部118对介质D是否为在机器学习中所使用的记录介质进行判定。另外,画面50b中的其他的画面方式与图21的画面50a相同。
在对介质D进行机器学习的情况下,在图23的画面50b中按下学习按键53。当对学习按键53进行操作时,切换至图24的画面62。在画面62的印刷介质一览表63中,在最左端的列中追加了学习栏。在学习栏中,设置有用于对介质进行选择的复选框,能够对想要学习的介质进行选择。
作为一个示例,在图24的画面62中,成为介质A、介质B、介质C、介质D通过复选框而被选择的状态。此外,在画面62上,作为操作按键,设置有学习执行按键64和返回按键65这两个按键。当按下返回按键65时,不实施学习,而是返回至图23的画面50b。
是否为在机器学习中使用的记录介质的判别方法
对在上述内容中利用多个设定画面而说明的印刷介质是否为在机器学习中使用的印刷介质的判别方法进行整理。
印刷介质是否为在机器学习中使用的印刷介质的判别方法具有多个机器学习模型,且针对多个机器学习模型的每一个,包含如下的情况,即,(h)获得通过学习部117并利用印刷介质的物理特性和类别信息来进行机器学习的判别器;(i)通过作为学习状态判定部的判别器管理部118而对印刷介质是否为在机器学习中使用的印刷介质进行判定;(j)在显示部150上显示判定结果。
学习中的精度确认
在图24的画面62上,当按下学习执行按键64时,介质A~介质D的机器学习开始,图25的画面66被叠加显示。
在画面66上,显示了“是否显示学习中的精度?”这样的消息、是按键67、否按键68。当按下是按键67时,切换至图26的画面69。此外,在按下否按键68的情况下,不显示画面69,学习一结束,就切换至图27的画面71。
图26的画面69为表示学习中的精度的坐标图,横轴取学习的进度(%),纵轴取判别精度(%)。在此,判别精度通过判别器管理部118(图3)而向判别器输入精度评价用数据的印刷介质的分光信息,从而通过是否被判别为所意图的标识符而对判别精度进行计算。精度评价用数据为评价专用的数据,并使用相符的识别器中的与学习时不同的分光信息。例如,在画面69的情况下,向判别器1输入与学习时不同的精度评价用的分光信息,并将被判别为所意图的标识符的比例设为判别精度。此时,判别器管理部118作为精度评价部而发挥功能。
在画面69上,在学习的进度为60%时间点,确认了判别精度大约为70%的状态。当学习结束且进度成为100%时,从画面69切换为图27的画面71。在画面71上,设置有“学习已结束。”这样的消息、警告标志、是按键72、否按键73。在警告标志的旁边,显示有“作为追加了ID0004的纸张信息的结果,精度成为82%。是否追加该纸张?”这样的消息。这表示在画面69的精度坐标图中学习结束(进度100%)时间点处的判别精度为82%。当按下否按键73时,返回至实施学习前的图24的画面62。
当按下是按键72时,切换至图28的画面50c。在画面50c的印刷介质一览表51c上,与介质C、介质D一起成为学习“完毕”,从而被显示。此外,还记录有学习日期时间。这是因为,作为学习状态判定部的判别器管理部118将介质C、介质D判定为在机器学习中使用的印刷介质。
此外,虽然在上述内容中,设为,实施机器学习,直到学习的进度成为100%为止,并进行了说明,但不限定于此,也可以为,在判别精度成为预定的判别精度以上的情况下,结束机器学习。
例如,在图26的画面69上,当按下详细设定按键70时,显示可输入目标判别精度的画面(未图示)。例如,在以80%而输入了目标判别精度的情况下,能够在画面69的坐标图中判别精度成为80%以上的时间点处结束机器学习。由此,即使在学习的中途,也能够获得所需的判别精度的判别器,因此,效率较好。
此外,虽然在上述内容中,作为通过判别器1而使介质D进行机器学习的结果,如图27的画面71所示,判别精度为82%,但未确认其他的判别器中的判别精度。在机器学习模型中,由于通过其他的判别器来进行学习而能够获得更好的判别精度的情况,因此,优选为,还通过其他的判别器来进行确认。
例如,当按下图21的画面50a的判别器选择按键54时,可选择的判别器被一览显示(未图示)。能够从中选择判别器1以外的判别器,并以前述的方法来新追加介质D,从而进行机器学习。详细而言,设置有多个通过多个机器学习模型而分别获得的判别器,学习部117在判别精度小于预定的判别精度的情况下,对机器学习模型进行变更。由此,在判别精度未提高的情况下,能够选择有可能可进一步提高判别器的判别精度的机器学习模型。另外,也可也能从图23的画面50b、图28的画面50c中对判别器选择按键54进行操作。
或者,在判别精度小于预定的判别精度的情况下,也可以使对判别器进行变更的处理程序化,从而使学习部117(图3)执行。
图29为表示判别器中的判别精度的历史的坐标图。
此外,存储部120对每个判别器的判别精度的历史、以及与判别精度对应的机器学习的历史进行存储。例如,在对图21的画面50a的判别器选择按键54进行操作而选择了特定的判别器时,显示历史按键(未图示)。当按下历史按键时,显示图29的画面74。画面74为表示选择出的判别器中的判别精度的历史的坐标图,横轴为学习日期时间,纵轴取判别精度(%)。如该坐标图所示,能够掌握如下的时间序列的判别精度,即,在10月23日的学习时间点,判别精度为93%,此后,在11月10日的时间点,为98%,在11月15日的时间点,为96%,在11月30日的时间点,为97%。另外,在现状中,设定有最新的11月30日的时间点处的判别器。
在此,在画面74上,设置有恢复按键75。当按下恢复按键75时,能够实施坐标图中的判别精度点的选择。例如,在欲恢复判别精度最高的11月10日的时间点的判别器的情况下,选择98%的判别精度点。当选择判别精度点时,显示“是否恢复11月10日的判别器?”这样的消息、是按键、否按键(均未图示),当按下是按键时,执行恢复。关于判别器的恢复,基于存储部120中的每个判别器的判别精度的历史、以及机器学习的历史,恢复选择了学习部117的判别精度中的判别器。
印刷介质的判别处理中的判别精度的确认方法
对在上述内容中利用多个设定画面而说明的印刷介质的判别处理中的判别精度的确认方法进行整理。
判别精度的确认方法具有多个机器学习模型,针对多个机器学习模型的每一个,包含如下的情况,即,(k)获得通过学习部117并利用印刷介质的物理特性和类别信息而进行机器学习的判别器;(l)通过作为精度评价部的判别器管理部118,并利用与在机器学习中使用的印刷介质的物理特性不同的精度评价用数据,获得判别精度;(m)在显示部150上显示判定结果。
如以上所述的那样,根据本实施方式的印刷装置110、印刷系统100、印刷介质的判别方法、以及判别精度的确认方法、印刷介质的判别方法,能够获得以下的效果。
印刷装置110具备对与印刷介质PM的物理信息和类别信息相应的印刷参数进行存储的存储部120、基于印刷参数而实施印刷的印刷机构11、获得使用印刷介质PM的物理信息和类别信息来进行机器学习的判别器的学习部117、作为对是否为在判别器的机器学习中所使用的印刷介质进行判定的学习状态判定部的判别器管理部118。此外,印刷系统100也具备与印刷装置110的各部同样地发挥功能的存储部120、打印机10、学习部117、判别器管理部118。
由此,学习部117获得利用印刷介质PM的物理信息和类别信息来进行机器学习的判别器。而且,作为学习状态判定部的判别器管理部118对印刷介质PM是否为在判别器的机器学习中所使用的印刷介质进行判定。
因此,能够提供可对印刷介质PM是否为在判别器的机器学习中所使用的印刷介质进行判定的印刷装置110、印刷系统100。换言之,能够提供可对记录介质的学习状态进行识别的记录装置、记录系统。
印刷系统100具备获得利用印刷介质PM的物理信息和类别信息来进行机器学习的判别器的学习部117、作为得到判别器的判别精度的精度评价部的判别器管理部118。此外,印刷装置110也具备以与印刷系统100的各部同样的方式发挥功能的学习部117、判别器管理部118。
由此,能够通过作为精度评价部而发挥功能的判别器管理部118来得到判别器的判别精度。
因此,能够提供可掌握并管理判别器的判别精度的印刷系统100(印刷装置110)。
此外,还具备存储部120,在存储部120中存储有精度评价用数据,作为精度评价部的判别器管理部118利用精度评价用数据,获得判别精度。由此,能够利用精度评价用数据来获得判别精度。
此外,精度评价用数据为,与在相符的判别器的机器学习中所使用的印刷介质的物理特性不同的数据。
假设,在使用在机器学习中所使用的记录介质的物理特性数据的情况下,该数据由于学习完毕而能够可靠地判别,因此,精度成为100%,没有意义。由此,能够通过将与在机器学习中所使用的记录介质的物理特性不同的数据作为精度评价用数据来使用,从而获得适当的判别精度。换言之,能够获得准确的判别精度。
此外,还具备显示部150,在显示部150上,显示有对学习状态进行显示的作为第一画面的画面50a、画面50b、画面50c、画面62,所述学习状态包含印刷介质PM是否为在判别器的机器学习中所使用的印刷介质的情况。
由此,在显示部150上显示印刷介质的学习状态,因此,能够将印刷介质的学习状态通知给用户。
此外,在画面50a上,显示在由作为记录部的印刷机构11(打印机10)实施的印刷中所使用的多个印刷介质PM,并且,还显示每个印刷介质PM的学习状态。
由此,能够将每个印刷介质的学习状态通知给用户。
此外,在画面50a上,显示印刷介质PM的类别信息和学习状态。
由此,能够将印刷介质的类别信息和该记录介质的学习状态一起通知给用户。
此外,在画面50a上,显示实施由学习部117执行的机器学习的学习日期时间。由此,能够将印刷介质的学习日期时间的历史通知给用户。
此外,针对在画面50a上通过印刷介质的类别信息而被选择的印刷介质,通过学习部117来执行机器学习。
由此,用户能够选择任意的记录介质,并执行机器学习。
此外,在显示部150上,显示表示判别精度的画面69。由此,用户能够通过画面69来识别判别精度。
此外,在画面69上,利用坐标图,显示与机器学习的进度相应的判别精度。
由此,能够掌握与机器学习的进度相应的判别精度的变化。
此外,学习部117在机器学习的进度中的判别精度为预定的判别精度以上的情况下结束机器学习。
由此,由于在达到了预定的判别精度的时间点结束机器学习,因此,能够有效地得到精度良好的判别器。
此外,设置有多个通过多个机器学习模型而分别获得的判别器,学习部117在判别精度小于预定的判别精度的情况下对机器学习模型进行变更。
由此,在判别精度未提高的情况下,能够选择有可能使判别器的判别精度更加提高的机器学习模型。
此外,存储部120对每个判别器的判别精度的历史、以及与判别精度对应的机器学习的历史进行存储。
由此,能够通过存储部120来确认每个判别器的判别精度的历史、机器学习的历史。
此外,基于存储部120所记录的判别精度的历史、以及机器学习的历史,学习部117恢复预定的判别精度下的判别器。
由此,能够从存储部120的历史中恢复预定的判别精度下的判别器。
此外,印刷介质是否为在机器学习中使用的印刷介质的判别方法具有多个机器学习模型,针对多个机器学习模型的每一个,包含如下的情况,即,获得利用印刷介质的物理特性和类别信息来进行机器学习的判别器;对印刷介质是否为在机器学习中使用的印刷介质进行判定;显示判定结果。
根据该方法,能够对印刷介质是否为在机器学习中所使用的印刷介质进行判定,并显示其判定结果。
因此,根据该判别方法,能够将记录介质是否为在判别器的机器学习中所使用的记录介质的情况通知给用户。
此外,印刷介质的判别处理中的判别精度的确认方法具有多个机器学习模型,针对多个机器学习模型的每一个,包含如下的情况,即,获得利用印刷介质的物理特性和类别信息来进行机器学习的判别器;利用与在机器学习中所使用的印刷介质的物理特性不同的精度评价用数据来获得判别精度;显示判别精度。
由此,利用与在相符的判别器的机器学习中使用的印刷介质的物理特性不同的精度评价用数据来获得判别精度,因此,能够获得适当的判别精度。而且,能够显示判别精度,并通知给用户。
因此,能够提供可以可靠地获得印刷介质的判别处理中的判别精度的判别精度的确认方法。
此外,在优选例中,信息处理装置20采用了笔记本型PC或平板型PC。打印机10或印刷装置110有可能成为根据作为印刷介质的卷筒介质而实施大幅面的印刷的大型的装置结构。在该情况下,由于印刷装置110的操作面板与卷筒介质之间的距离较远,因此,难以在确认实际的卷筒介质的同时实施作业。根据本实施方式,携带被无线连接的笔记本型PC或平板型PC的用户前往卷筒介质的场所,在该场所处,能够在确认卷筒介质的类别信息标签的同时实施作业,并能够有效地实施作业。而且,在优选例中,笔记本型PC、平板型PC具备摄像部,并能够从被印刷在卷筒介质的类别信息标签上的条形码信息中准确且有效地取得卷筒介质的类别信息。此外,信息处理装置20由于只要为能够执行印刷介质管理程序的信息终端即可,因此,也可以使用具备与平板型PC相同的功能的智能手机。
变形例
利用图1,进行说明。
在上述内容中,作为印刷介质PM的物理信息,以设为利用通过分光测量仪30而测量出的分光反射率(分光数据)的物理信息的方式而进行了说明,但未被限定于此,只要为印刷介质PM的物理信息即可。例如,也可以将透射印刷介质PM的光的分光透射率、或对印刷介质的表面进行拍摄而得到的图像数据作为物理信息来使用。或者,也可以向印刷介质PM照射超声波,并将其反射率作为物理信息来使用。
利用图3,进行说明。
虽然在上述内容中设为,通过信息处理装置20的各部的协同工作,而使学习部117、作为学习状态判定部以及精度评价部的判别器管理部118等发挥功能,但并未限定于此,只要能够执行印刷介质管理程序的信息处理装置即可。例如,也可以将被置于经由网络NW的云环境中的服务器、或PC作为信息处理装置20来使用。由此,能够对来自远程地点的印刷装置110的管理、或多台印刷装置110进行统一管理等。
本公开并未被限定于上述的实施方式,在不脱离其主旨的范围内能够通过各种方式来实现。例如,本公开即使通过以下的方式(aspect),也能够实现。为了解决本公开的课题的一部分或全部,或者,为了实现本公开的效果的一部分或全部,与以下记载的各个方式中的技术特征对应的上述实施方式中的技术特征能够适当地进行替换或组合。此外,只要该技术特征在本说明书中并未作为必要的特征而被说明,则能够适当地删除。
(1)根据本公开的第一方式,提供利用机器学习模型来执行印刷介质的判别处理的方法。该方法包含:工序(a),当将N设为1以上的整数时准备N个机器学习模型,其中,所述N个机器学习模型各自被构成为,通过将作为印刷介质的分光反射率的输入分光数据分类为多个等级的任意一个,而对所述印刷介质的种类进行判别;工序(b),取得作为对象印刷介质的分光反射率的对象分光数据;工序(c),通过利用所述N个机器学习模型来执行所述对象分光数据的等级分类处理,而对所述对象印刷介质的种类进行判别的工序。
根据该方法,由于使用机器学习模型来进行等级分类处理,因此能够高精度地实施光学特性相似的印刷介质的判别。
(2)在上述方法中,也可以设为,所述工序(c)包含根据所述对象分光数据的等级分类处理的结果而对表示所述对象印刷介质的种类的介质标识符进行判别的工序,所述方法还包含:根据所述介质标识符而对用于使用所述对象印刷介质来执行印刷的印刷设定进行选择的工序;按照所述印刷设定而使用所述对象印刷介质来执行印刷的工序。
根据该方法,由于从对象印刷介质的判别处理的结果中选择印刷设定,因此,能够利用该对象印刷介质来创建漂亮的印刷物。
(3)在上述方法中,也可以设为,所述N为2以上的整数,所述N个机器学习模型各自被构成为,具有与所述N个机器学习模型中的其他的机器学习模型不同的至少一个等级。
根据该方法,由于利用两个以上的机器学习模型来执行等级分类处理,因此,与由一个机器学习模型来实施针对大量的等级的分类处理的情况相比,能够高速地执行处理。
(4)在上述方法中,也可以设为,所述N个机器学习模型利用所对应的N个教师数据组来执行学习,构成所述N个教师数据组的N个分光数据组处于与通过聚类处理而被分组为N个组的状态等效的状态。
根据该方法,由于在各个机器学习模型的学习中所使用的分光数据通过聚类处理而被分组,因此,能够提高由机器学习模型执行的等级分类处理的精度。
(5)在上述方法中,也可以设为,各个教师数据组具有以构成各个教师数据组的分光数据组的中心为代表的代表点,对于能够通过任意的一个机器学习模型来进行分类的等级的数量,设定有上限值,成为由所述N个机器学习模型执行的所述等级分类处理的对象的、多个种类的印刷介质被分类为,如果不存在用户的排除指示则不能从所述等级分类处理的对象中排除的必要印刷介质和即使不存在用户的排除指示也能够从所述等级分类处理的对象中排除的任意印刷介质中的任意一个。所述工序(a)包含将未成为由所述N个机器学习模型执行的所述等级分类处理的对象的新的追加印刷介质设为所述等级分类处理的对象的介质追加工序,所述介质追加工序包含:工序(a1),将所述追加印刷介质的分光反射率作为追加分光数据来取得;工序(a2),将所述N个教师数据组中的、具有与所述追加分光数据最近的代表点的教师数据组作为接近教师数据组来选择,并且选择利用所述接近教师数据组而实施了学习的特定的机器学习模型;工序(a3),在所述特定的机器学习模型中的相当于所述必要印刷介质的等级数小于所述上限值的情况下,将所述追加分光数据追加至所述接近教师数据组中,而对所述接近教师数据组进行更新,并利用更新后的所述接近教师数据组来执行所述特定的机器学习模型的再次学习。
根据该方法,能够实施与追加印刷介质对应的等级分类。此外,由于在将追加分光数据追加至具有与追加印刷介质的追加分光数据最近的重心的接近教师数据组中的基础上实施机器学习模型的再次学习,因此,能够提高由机器学习模型执行的等级分类处理的精度。
(6)在上述方法中,也可以设为,所述工序(a3)包含:在所述工序(a3)的执行前的时间点处所述特定的机器学习模型中的相当于所述必要印刷介质的等级数和相当于所述任意印刷介质的等级数的总计等于所述上限值的情况下,从所述接近教师数据组中删除与所述任意印刷介质相关的任意分光数据的工序。
根据该方法,由于能够从接近教师数据组中删除任意介质的任意分光数据,因此,能够在不增加机器学习模型的等级数的情况下,提高等级分类处理的精度。
(7)在上述方法中,也可以设为,所述介质追加工序还包含:工序(a4),在所述特定的机器学习模型中的相当于所述必要印刷介质的等级数等于所述上限值的情况下,创建新的机器学习模型,并且,利用包含所述追加分光数据和与一个以上的任意印刷介质相关的任意分光数据的新的教师数据组,来执行所述新的机器学习模型的学习。
根据该方法,能够实施与追加印刷介质对应的等级分类。此外,由于利用包含追加分光数据和任意分光数据的新的教师数据组来实施机器学习模型的学习,因此,能够提高等级分类处理的精度。
(8)上述方法也可以设为,还包含从由选自所述N个机器学习模型的一个对象机器学习模型执行的所述等级分类处理的对象中、将一个排除对象印刷介质排除的介质排除工序,所述介质排除工序包含:工序(i),通过从在所述对象机器学习模型的学习中所使用的教师数据组中删除与所述排除对象印刷介质相关的分光数据,而更新所述教师数据组;工序(i i),利用被更新后的所述教师数据组来执行所述对象机器学习模型的再次学习。
根据该方法,能够将印刷介质从机器学习模型的等级分类处理的对象中排除。
(9)在上述方法中,也可以设为,所述工序(i)在通过将所述排除对象印刷介质从由所述对象机器学习模型执行的所述等级分类处理的对象中排除而使所述对象机器学习模型所具有的等级数小于被预先设定的下限值的情况下,从在所述对象机器学习模型的学习中所使用的教师数据组中删除与所述排除对象印刷介质相关的分光数据,并且,追加与一个以上的任意印刷介质相关的任意分光数据,从而对所述教师数据组进行更新。
根据该方法,由于能够将机器学习模型的等级数设为下限值以上,因此能够防止等级分类处理的精度过低的情况。
(10)在上述方法中,也可以设为,在各个机器学习模型的学习中所使用的一个教师数据组、和从该教师数据组中被去除的分光数据、以及被追加至该教师数据组的分光数据作为构成同一个分光数据组的数据而被管理,从该教师数据组中被去除的所述分光数据成为避让至所述分光数据组的避让用区域的状态,被追加至该教师数据组的所述分光数据从避让至所述分光数据组的所述避让用区域的分光数据中进行选择。
根据该方法,由于将作为教师数据而使用的分光数据作为分光组数据来管理,因此,能够将构成N个教师数据组的N个分光数据组维持为与通过聚集处而被分组的状态等效的状态。
(11)根据本公开的第二方式,提供一种利用机器学习模型来执行印刷介质的判别处理的系统。该系统具备:存储器,其在将N设为1以上的整数时对N个机器学习模型进行存储;处理器,其利用所述N个机器学习模型,来执行所述判别处理。所述N个机器学习模型各自被构成为,通过将作为印刷介质的分光反射率的输入分光数据分类为多个等级的任意一个,而对所述印刷介质的种类进行判别。所述处理器被构成为执行第一处理和第二处理,所述第一处理取得对象印刷介质的对象分光数据,所述第二处理通过利用所述N个机器学习模型来执行所述对象分光数据的等级分类处理,而对所述对象印刷介质的种类进行判别。
根据该系统,由于利用机器学习模型来实施等级分类处理,因此,能够精度良好地实施光学特性相似的印刷介质的判别。
本公开也能够以上述以外的各种方式来实现。例如,能够以用于实现等级分类装置的功能的计算机程序、记录有该计算机程序的非临时性的记录介质(non-transitorystorage medium)等方式来实现。
符号说明
10…打印机;11…印刷机构;20…信息处理装置;30…分光测量仪;40…印刷介质保持器;50a、50b、50c…画面;51a、51b、51c…印刷介质一览表;52…新追加按键;53…学习按键;54…判别器选择按键;55…画面;56…ID编号栏;57…介质名称栏;58…坐标图;59…测色按键;60…追加按键;61…取消按键;62…画面;63…印刷介质一览表;64…学习执行按键;65…返回按键;66…画面;67…是按键;68…否按键;69…画面;70…详细设定按键;71…画面;72…是按键;73…否按键;74…画面;75…恢复按键;100…印刷系统;105…处理器;110…印刷装置;112…印刷处理部;114…等级分类处理部;116…印刷设定创建部;117…学习部;118…判别器管理部;120…存储部;130…接口电路;140…输入器件;150…显示部;201…第一机器学习模型;202…第二机器学习模型;203…第三机器学习模型;SD1…第一分光数据组;SD2…第二分光数据组;KS1、KS2…已知特征光谱组。
Claims (11)
1.一种利用机器学习模型来执行印刷介质的判别处理的方法,包含:
工序(a),当将N设为1以上的整数时准备N个机器学习模型,其中,所述N个机器学习模型各自被构成为,通过将作为印刷介质的分光反射率的输入分光数据分类为多个等级的任意一个,而对所述印刷介质的种类进行判别;
工序(b),取得作为对象印刷介质的分光反射率的对象分光数据;
工序(c),通过利用所述N个机器学习模型来执行所述对象分光数据的等级分类处理,而对所述对象印刷介质的种类进行判别。
2.如权利要求1所述的方法,其中,
所述工序(c)包含根据所述对象分光数据的等级分类处理的结果而对表示所述对象印刷介质的种类的介质标识符进行判别的工序,
所述方法还包含:
根据所述介质标识符而对用于使用所述对象印刷介质来执行印刷的印刷设定进行选择的工序;
按照所述印刷设定而使用所述对象印刷介质来执行印刷的工序。
3.如权利要求1或2所述的方法,其中,
所述N为2以上的整数,
所述N个机器学习模型各自被构成为,具有与所述N个机器学习模型中的其他的机器学习模型不同的至少一个等级。
4.如权利要求3所述的方法,其中,
所述N个机器学习模型利用所对应的N个教师数据组来执行学习,
构成所述N个教师数据组的N个分光数据组处于与通过聚类处理而被分组为N个组的状态等效的状态。
5.如权利要求1所述的方法,其中,
各个教师数据组具有以构成各个教师数据组的分光数据组的中心为代表的代表点,
对于能够通过任意的一个机器学习模型来进行分类的等级的数量,设定有上限值,
成为由所述N个机器学习模型执行的所述等级分类处理的对象的多个种类的印刷介质被分类为,如果不存在用户的排除指示则不能从所述等级分类处理的对象中排除的必要印刷介质和即使不存在用户的排除指示也能够从所述等级分类处理的对象中排除的任意印刷介质中的任意一个,
所述工序(a)包含将未成为由所述N个机器学习模型执行的所述等级分类处理的对象的新的追加印刷介质设为所述等级分类处理的对象的介质追加工序,
所述介质追加工序包含:
工序(a1),将所述追加印刷介质的分光反射率作为追加分光数据来取得;
工序(a2),将所述N个教师数据组中的具有与所述追加分光数据最近的代表点的教师数据组作为接近教师数据组来选择,并且选择利用所述接近教师数据组而实施了学习的特定的机器学习模型;
工序(a3),在所述特定的机器学习模型中的相当于所述必要印刷介质的等级数小于所述上限值的情况下,将所述追加分光数据追加至所述接近教师数据组中,而对所述接近教师数据组进行更新,并利用更新后的所述接近教师数据组来执行所述特定的机器学习模型的再次学习。
6.如权利要求5所述的方法,其中,
所述工序(a3)包含:在所述工序(a3)的执行前的时间点处所述特定的机器学习模型中的相当于所述必要印刷介质的等级数和相当于所述任意印刷介质的等级数的总计等于所述上限值的情况下,从所述接近教师数据组中删除与所述任意印刷介质相关的任意分光数据的工序。
7.如权利要求5或6所述的方法,其中,
所述介质追加工序还包含:
工序(a4),在所述特定的机器学习模型中的相当于所述必要印刷介质的等级数等于所述上限值的情况下,创建新的机器学习模型,并且,利用包含所述追加分光数据和与一个以上的任意印刷介质相关的任意分光数据的新的教师数据组,来执行所述新的机器学习模型的学习。
8.如权利要求1所述的方法,其中,
还包含从由选自所述N个机器学习模型的一个对象机器学习模型执行的所述等级分类处理的对象中将一个排除对象印刷介质排除的介质排除工序,
所述介质排除工序包含:
工序(i),通过从在所述对象机器学习模型的学习中所使用的教师数据组中删除与所述排除对象印刷介质相关的分光数据,而更新所述教师数据组;
工序(ii),利用被更新的所述教师数据组来执行所述对象机器学习模型的再次学习。
9.如权利要求8所述的方法,其中,
所述工序(i)在通过将所述排除对象印刷介质从由所述对象机器学习模型执行的所述等级分类处理的对象中排除而使所述对象机器学习模型所具有的等级数小于被预先设定的下限值的情况下,从在所述对象机器学习模型的学习中所使用的教师数据组中删除与所述排除对象印刷介质相关的分光数据,并且,追加与一个以上的任意印刷介质相关的任意分光数据,从而对所述教师数据组进行更新。
10.如权利要求8或9所述的方法,其中,
在各个机器学习模型的学习中所使用的一个教师数据组和从该教师数据组中被去除的分光数据以及被追加至该教师数据组的分光数据作为构成同一个分光数据组的数据而被管理,
从该教师数据组中被去除的所述分光数据成为避让至所述分光数据组的避让用区域的状态,
被追加至该教师数据组的所述分光数据从避让至所述分光数据组的所述避让用区域的分光数据中进行选择。
11.一种利用机器学习模型来执行印刷介质的判别处理的系统,具备:
存储器,其在将N设为1以上的整数时对N个机器学习模型进行存储;
处理器,其利用所述N个机器学习模型,来执行所述判别处理,
所述N个机器学习模型各自被构成为,通过将作为印刷介质的分光反射率的输入分光数据分类为多个等级的任意一个,而对所述印刷介质的种类进行判别,
所述处理器被构成为执行第一处理和第二处理,所述第一处理取得对象印刷介质的对象分光数据,所述第二处理通过利用所述N个机器学习模型来执行所述对象分光数据的等级分类处理,而对所述对象印刷介质的种类进行判别。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-213538 | 2020-12-23 | ||
JP2020213538A JP2022099647A (ja) | 2020-12-23 | 2020-12-23 | 機械学習モデルを用いて印刷媒体の判別処理を実行する方法、及び、システム |
JP2021-031439 | 2021-03-01 | ||
JP2021-031440 | 2021-03-01 | ||
JP2021031439A JP2022132786A (ja) | 2021-03-01 | 2021-03-01 | 機械学習モデルにおいて機械学習の学習状態を表示する記録装置、記録媒体の判別方法。 |
JP2021031440A JP2022132787A (ja) | 2021-03-01 | 2021-03-01 | 機械学習モデルを用いた機械学習による判別器の判別精度を確認可能な記録システム、判別精度の確認方法。 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114654902A true CN114654902A (zh) | 2022-06-24 |
CN114654902B CN114654902B (zh) | 2023-06-02 |
Family
ID=82023993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111560342.5A Active CN114654902B (zh) | 2020-12-23 | 2021-12-20 | 利用机器学习模型来执行印刷介质的判别处理的方法以及系统 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220194099A1 (zh) |
CN (1) | CN114654902B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022021119A (ja) * | 2020-07-21 | 2022-02-02 | キヤノン株式会社 | 情報処理装置、記録装置、情報処理方法、及びプログラム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101774294A (zh) * | 2009-12-18 | 2010-07-14 | 施江强 | 电力标识打印系统 |
US20130127946A1 (en) * | 2011-11-21 | 2013-05-23 | Seiko Epson Corporation | Printing apparatus and printing method |
JP2015174256A (ja) * | 2014-03-14 | 2015-10-05 | 富士ゼロックス株式会社 | 障害予測システム、障害予測装置およびプログラム |
CN111452515A (zh) * | 2019-01-18 | 2020-07-28 | 精工爱普生株式会社 | 打印装置、学习装置及学习方法 |
CN111660687A (zh) * | 2019-03-08 | 2020-09-15 | 精工爱普生株式会社 | 故障时期推测装置、机器学习装置、故障时期推测方法 |
CN111942022A (zh) * | 2019-05-16 | 2020-11-17 | 精工爱普生株式会社 | 信息处理装置、印刷装置、学习装置以及信息处理方法 |
CN111971551A (zh) * | 2018-04-10 | 2020-11-20 | 朗姆研究公司 | 机器学习中的光学计量以表征特征 |
CN111993801A (zh) * | 2020-09-10 | 2020-11-27 | 广东海洋大学 | 基于反演模型的打印机迭代学习控制方法及打印机系统 |
-
2021
- 2021-12-20 CN CN202111560342.5A patent/CN114654902B/zh active Active
- 2021-12-21 US US17/645,324 patent/US20220194099A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101774294A (zh) * | 2009-12-18 | 2010-07-14 | 施江强 | 电力标识打印系统 |
US20130127946A1 (en) * | 2011-11-21 | 2013-05-23 | Seiko Epson Corporation | Printing apparatus and printing method |
JP2015174256A (ja) * | 2014-03-14 | 2015-10-05 | 富士ゼロックス株式会社 | 障害予測システム、障害予測装置およびプログラム |
CN111971551A (zh) * | 2018-04-10 | 2020-11-20 | 朗姆研究公司 | 机器学习中的光学计量以表征特征 |
CN111452515A (zh) * | 2019-01-18 | 2020-07-28 | 精工爱普生株式会社 | 打印装置、学习装置及学习方法 |
CN111660687A (zh) * | 2019-03-08 | 2020-09-15 | 精工爱普生株式会社 | 故障时期推测装置、机器学习装置、故障时期推测方法 |
CN111942022A (zh) * | 2019-05-16 | 2020-11-17 | 精工爱普生株式会社 | 信息处理装置、印刷装置、学习装置以及信息处理方法 |
CN111993801A (zh) * | 2020-09-10 | 2020-11-27 | 广东海洋大学 | 基于反演模型的打印机迭代学习控制方法及打印机系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114654902B (zh) | 2023-06-02 |
US20220194099A1 (en) | 2022-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6862579B2 (ja) | 画像特徴の取得 | |
JP6708385B2 (ja) | 識別器作成装置、識別器作成方法、およびプログラム | |
US20110158535A1 (en) | Image processing apparatus and image processing method | |
JPH0636038A (ja) | 監視統計パターン認識を用いる特徴分類 | |
JP2008009893A (ja) | パラメータ学習方法及びその装置、パターン識別方法及びその装置、プログラム | |
JPH06176161A (ja) | 入力分類方法、トレーニング方法、及び装置 | |
CN114654902B (zh) | 利用机器学习模型来执行印刷介质的判别处理的方法以及系统 | |
Ghadhban et al. | Segments interpolation extractor for finding the best fit line in Arabic offline handwriting recognition words | |
JP6259671B2 (ja) | 関連性判定装置、関連性判定プログラム、及び関連性判定方法 | |
JP3848514B2 (ja) | 顕著性算出装置及び方法 | |
US20230056735A1 (en) | Method of performing classification processing using machine learning model, information processing device, and computer program | |
JP2022132786A (ja) | 機械学習モデルにおいて機械学習の学習状態を表示する記録装置、記録媒体の判別方法。 | |
JP2022132787A (ja) | 機械学習モデルを用いた機械学習による判別器の判別精度を確認可能な記録システム、判別精度の確認方法。 | |
US20230086327A1 (en) | Systems and methods of interactive visual graph query for program workflow analysis | |
CN114266009A (zh) | 一种宽度稀疏分类方法及装置 | |
JP2023086215A (ja) | 学習方法、判別方法、学習装置、判別装置、および、コンピュータープログラム | |
JP2022099647A (ja) | 機械学習モデルを用いて印刷媒体の判別処理を実行する方法、及び、システム | |
JP2022083484A (ja) | 物体検出方法、物体検出装置、及び、コンピュータープログラム | |
JP2000090274A (ja) | パターン識別方法及びパターン識別プログラムを記録した記録媒体 | |
Dey et al. | Handwritten Tibetan Character recognition based on ELM using modified HOG features | |
JP2022118781A (ja) | 機械学習モデルを用いて被判別データのクラスを判別する方法、情報処理装置、及び、コンピュータープログラム | |
JP2022138266A (ja) | 機械学習モデルを用いて被判別データのクラスを判別する方法、情報処理装置、及び、コンピュータープログラム | |
JP2023005937A (ja) | 機械学習モデルを用いて被判別データのクラス判別処理を実行する方法、情報処理装置、及び、コンピュータープログラム | |
US20230005119A1 (en) | Method for determining quality of inspection data using machine learning model, information processing apparatus, and non-transitory computer readable storage medium storing computer program | |
US20220277198A1 (en) | Method for discriminating class of data to be discriminated using machine learning model, information processing device, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |