CN111340178A - 学习装置、印刷控制装置以及存储装置 - Google Patents
学习装置、印刷控制装置以及存储装置 Download PDFInfo
- Publication number
- CN111340178A CN111340178A CN201911293040.9A CN201911293040A CN111340178A CN 111340178 A CN111340178 A CN 111340178A CN 201911293040 A CN201911293040 A CN 201911293040A CN 111340178 A CN111340178 A CN 111340178A
- Authority
- CN
- China
- Prior art keywords
- image
- learning
- recommended
- printing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 claims abstract description 41
- 238000012545 processing Methods 0.000 claims description 124
- 230000006870 function Effects 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000000034 method Methods 0.000 description 98
- 230000008569 process Effects 0.000 description 89
- 210000002569 neuron Anatomy 0.000 description 40
- 238000013528 artificial neural network Methods 0.000 description 32
- 238000012549 training Methods 0.000 description 19
- 230000015654 memory Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 230000004913 activation Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1202—Dedicated interfaces to print systems specifically adapted to achieve a particular effect
- G06F3/1203—Improving or facilitating administration, e.g. print management
- G06F3/1204—Improving or facilitating administration, e.g. print management resulting in reduced user or operator actions, e.g. presetting, automatic actions, using hardware token storing data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1223—Dedicated interfaces to print systems specifically adapted to use a particular technique
- G06F3/1237—Print job management
- G06F3/1253—Configuration of print job parameters, e.g. using UI at the client
- G06F3/1254—Automatic configuration, e.g. by driver
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1223—Dedicated interfaces to print systems specifically adapted to use a particular technique
- G06F3/1237—Print job management
- G06F3/1273—Print job history, e.g. logging, accounting, tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Projection-Type Copiers In General (AREA)
- Control Or Security For Electrophotography (AREA)
Abstract
提供了一种可以选择适于印刷的图像作为推荐图像的学习装置、印刷控制装置以及存储装置等。学习装置(100)包括获取部(110)和学习部(120)。获取部(110)获取图像以及表示对图像是否进行过印刷的指示的指示履历信息。学习部(120)基于将图像与指示履历信息建立对应而得到的数据集,对应该推荐印刷的推荐图像的条件进行机器学习。
Description
技术领域
本发明涉及一种学习装置、印刷控制装置以及学习完成模型等。
背景技术
近年,随着数码相机的普及等,用户可以获取的图像数据的量大幅地增多。由于图像的数量增多,作为印刷对象的图像的选择变得困难。例如,在用户通过手动作业选择图像时会消耗时间。
专利文献1公开了一种基于评价值从多个图像中选择推荐印刷的图像的方案。
专利文献1:日本特开2010-173323号公报
发明内容
在现有方案中,用于推荐适当的图像的参数设定所消耗的工时变得巨大。例如在专利文献1公开的方案中,用于设定适当的评价值的负担非常大。
本公开的一方面涉及一种学习装置,其包括获取图像以及表示对所述图像是否进行过印刷的指示的指示履历信息的获取部、以及基于将所述图像与所述指示履历信息建立对应而得到的数据集对应该推荐印刷的推荐图像的条件进行机器学习的学习部。
附图说明
图1是学习装置的结构例。
图2是包括学习装置的系统的结构例。
图3是神经网络的结构例。
图4是说明误差反向传播法的图。
图5是印刷控制装置的结构例。
图6是包括印刷控制装置的系统的结构例。
图7是说明在推论处理中的输入数据和输出数据的例子的图。
图8是说明推论处理的流程图。
图9是学习装置的其他的结构例。
图10是说明采用推论处理结果进行追加学习的处理的流程图。
图11是说明推论处理中的输入数据和输出数据的其他例子的图。
附图标记说明
10…印刷装置,20…处理装置,21…存储部,30…云,40…服务器系统,50…移动终端装置,60…摄像装置,100…学习装置,110…获取部,120…学习部,200…印刷控制装置,210…受理部,220…处理部,230…存储部。
具体实施方式
以下,对本实施方式进行说明。需要指出,以下说明的本实施方式并非对记载于专利权利要求的范围的内容进行不当地限定。此外,在本实施方式中说明的结构都不限定作为必须的构成要件。
1.概要
近年,数码相机的普及等成为主要因素,大量的图像可以容易地获取。在印刷装置中进行图像的印刷的情况下,需要从大量的候补图像中选择印刷对象图像。印刷对象图像是在印刷装置中成为印刷的对象的图像。候补图像是成为印刷对象图像的候补的图像并是用户可以访问的图像。由于候补图像的张数很多,因此在用户通过手动进行印刷对象图像的选择时,用户的负担很大。
针对于此,从多个图像中自动地选择希望的图像的方案也被公开。例如,基于图像求出给定的特征量,进行该特征量与事先设定的参数的比较处理。如果用户能够将与希望印刷的图像共同的特征作为参数预先进行设定,那么基于上述比较处理可以自动地提取适当的图像,从而可以减轻用户的负担。
但是,对上述参数进行适当地设定并不容易。例如,图像包括人物图像、风景图像等不同种类的图像。风景图像中自然物与人工物也可能有较大区别,还有即便是在自然物当中,也可以细分为山岳、溪流、黄昏等。从这么多种多样的图像中,在将选择推荐印刷的图像的参数通过手动进行设定的情况下,该设定的工时变得巨大。另外,如果要使用户的偏好得到反映,那么需要将上述参数针对每个用户进行调整。因此,参数设定的工时进一步增多。
因此,在本实施方式中,对作为推荐印刷的图像的推荐图像的条件进行机器学习。由此,由于自动地学习推荐图像的条件,因此推荐印刷适当的图像的系统,例如作为输入对判定对象图像进行受理并判定该判定对象图像是否为推荐图像的系统的构建是容易的。另外,通过将学习所采用的数据作为用户固有的数据,也可以获取反映每个用户的偏好的学习结果。
以下,分别对本实施方式中的学习处理、推论处理进行说明。学习处理是通过进行基于训练数据的机器学习而获取学习结果的处理。学习结果具体而言是学习完成模型。推论处理是采用通过学习处理生成的学习完成模型而输出基于输入的一些推论结果的处理。另外,也对基于推论处理的结果而更新学习完成模型的方案进行说明。
2.学习处理
2.1学习装置的结构例
图1是示出本实施方式的学习装置100的结构例的图。学习装置100包括获取用于学习的训练数据的获取部110以及基于该训练数据进行机器学习的学习部120。
获取部110例如是从其它装置获取训练数据的通信接口。或者,获取部110也可以获取学习装置100所保持的训练数据。例如,学习装置100包括未图示的存储部,获取部110是用于从该存储部读出训练数据的接口。本实施方式中的学习例如是监督式学习。监督式学习中的训练数据是将输入数据与正确标签建立对应而得到的数据集。正确标签也可以改述为教师数据。
学习部120进行基于获取部110获取的训练数据的机器学习并生成学习完成模型。需要指出,本实施方式的学习部120由下述的硬件构成。硬件可以包括处理数字信号的电路以及处理模拟信号的电路中的至少一种。例如,硬件可以由安装于电路基板的一个或多个电路装置、一个或多个电路元件构成。一个或多个电路装置例如为IC(Integrated Circuit集成电路)等。一个或多个电路元件例如为电阻、电容器等。
另外,学习部120也可以通过下述的处理器实现。本实施方式的学习装置100包括存储信息的存储器以及基于存储于存储器的信息而进行动作的处理器。信息例如为程序和各种数据等。处理器包括硬件。处理器可以采用CPU(Central Processing Unit中央处理器)、GPU(Graphics Processing Unit图像处理器)、DSP(Digital Signal Processor数字信号处理器)等各种处理器。存储器可以是SRAM(Static Random Access Memory静态随机存取存储器)、DRAM(Dynamic Random Access Memory动态随机存取存储器)等半导体存储器,也可以是寄存器,也可以是硬盘装置等磁力存储装置,还可以是光盘装置等光学式存储装置。例如,存储器存储可以由计算机读取的命令,通过处理器执行该命令,作为处理可以实现学习装置100的各个部分的功能。此处的命令可以是构成程序的命令集的命令,也可以是对处理器的硬件电路指示动作的命令。
更具体而言,获取部110获取图像和表示对图像是否进行过印刷指示的指示履历信息。指示履历信息是表示是否有指示印刷的履历的信息。另外,指示履历信息也可以包括印刷次数等信息。学习部120基于将图像与指示履历信息建立对应而得到的数据集,对应该推荐印刷的推荐图像的条件进行机器学习。由此,将与进行过印刷指示的图像具有近似特征的图像作为推荐图像,而获取选择的可能性高的学习结果。通过采用该学习结果,可以选择适当的图像作为推荐图像。尤其,在进行采用了给定的用户作为对象的指示履历信息的学习的情况下,易于选择具有该用户印刷倾向高的特征的图像作为推荐图像。即能够实现用于使反映用户的偏好的推荐图像的选择成为可能的学习处理。作为结果,即使在印刷对象图像的候补图像大量存在的情况下,也可以减轻选择印刷对象图像时的用户的负担。关于具体的学习处理的流程,下文采用图3以及图4进行描述。
图2是示出包括本实施方式的学习装置100的系统的结构例的图。学习装置100例如包含于连接于印刷装置10的处理装置20。需要指出,此处的印刷装置10可以是具有包括印刷功能的多种功能的复合机(MFP:Multifunction Peripheral)。
印刷装置10可以包括主CPU、子CPU等多个CPU,或者MPU(Micro-processing unit微型处理器)。主CPU进行印刷装置10的各个部分的控制或整体的控制。子CPU例如进行有关印刷的各种处理。另外,印刷装置10包括印刷引擎。印刷引擎是向印刷介质执行图像的印刷的机械结构。印刷引擎例如包括输送机构或喷墨方式的喷出头、包括该喷出头的滑架的驱动机构等。印刷引擎通过对由输送机构输送的印刷介质从喷出头喷出墨水,而在印刷介质上印刷图像。印刷介质可以利用纸、布等各种介质。需要指出,印刷引擎的具体结构不限于此处示例的结构,可以是以电子照片方式由色调剂进行印刷的结构或以热转印方式进行印刷的结构。除此之外,印刷装置10可以包括通信部、存储部、显示部、操作部等在印刷装置中广泛采用的各种结构。
处理装置20包括学习装置100以及存储部21。另外,处理装置20包括印刷应用程序。印刷应用程序是用于让用户执行印刷对象图像的选择以及印刷指示的软件。另外,基于用户的印刷指示,印刷应用程序执行用于使在印刷装置10中执行印刷对象图像的印刷的处理。
例如,学习装置100是除了学习处理之外还进行按照印刷应用程序的处理的装置。更具体而言,在按照记载有关学习处理的算法的学习软件并通过处理器等进行动作来实现学习装置100的各个部分的功能的情况下,该处理器进行按照印刷应用程序的动作。由此,学习装置100可以进行印刷对象图像的候补图像的显示处理、印刷指示按钮的显示处理、用户操作受理处理以及印刷执行处理等。需要指出,印刷应用程序也可以是包括作为进行印刷装置10的控制的软件的打印机驱动程序的软件。或者印刷应用程序作为与打印机驱动程序不同的软件也可以得到实现。例如,作为印刷应用程序的打印机驱动程序通过打印机驱动程序本身,或通过其它的通信应用程序、操作系统进行与印刷装置10的通信。
存储印刷对象图像的候补图像的存储介质可以考虑为多种形式。例如,候补图像可以存储于处理装置20的存储部21。另外,候补图像也可以存储于服务器系统40所包含的HDD(Hard Disk Drive硬盘驱动器)等存储部。处理装置20与服务器系统40通过网络连接。此处的网络是有线、无线都可以。例如处理装置20与服务器系统40的通信是按照Wi-Fi方式的无线通信。Wi-Fi方式例如是基于IEEE的802.11的标准以及符合其标准的无线通信方式。
另外,印刷对象图像的候补图像也可以存储于移动终端装置50以及摄像装置60等的存储部。移动终端装置50例如是智能手机或平板终端。摄像装置60是数码相机。移动终端装置50以及摄像装置60的存储部可以是内置存储器,也可以是安装于存储器卡槽的存储卡。处理装置20与移动终端装置50可以采用按照Wi-Fi或Bluetooth(登记商标)等标准的无线通信进行连接,也可以采用按照USB(Universal Serial Bus)等标准的有线连接。处理装置20与摄像装置60的连接也是同样的。
另外,印刷对象图像的候补图像也可以存储于云30。具体而言,候补图像可以存储于作为云服务而实现的存储介质。在云服务中,处理装置20不对包括存储介质的具体的装置进行识别,并可以参照存储于网络上的候补图像。需要指出,云服务所采用的网络例如是互联网等公共无线通信网络。
处理装置20的印刷应用程序对印刷对象图像的印刷指示进行受理。如上述的那样,由于学习装置100具备印刷应用程序的功能,将作为印刷对象图像而选择过的图像与表示对该图像进行过印刷指示的指示履历信息建立对应并存储于存储部21。另外,学习装置100也可以对于没有进行过印刷指示的履历的图像,将该图像与表示对该图像未进行印刷指示的指示履历信息建立对应并存储于存储部21。
但是,本实施方式的学习装置100不限定于以上说明的结构。例如,具备印刷应用程序的功能的学习装置100也可以包含于移动终端装置50等其它装置。广义上而言,学习装置100也可以包含于与印刷装置10不直接连接的装置。在这种情况下,学习装置100通过经由包含于处理装置20的打印机驱动程序而向印刷装置10发送印刷指示。例如,学习装置100可以包含于图2的服务器系统40,也可以包含于其它的服务器系统。这种情况下的学习装置100例如是Web应用程序。或者学习装置100可以包含于图2记载的其它装置,也可以包含于图2中未图示的装置。
另外,本实施方式的学习装置100不限定为具备印刷应用程序的功能的装置。具体而言,印刷应用程序也可以是在与实现学习装置100的各个部分的功能的处理器不同的处理器中进行动作的程序。这种情况下,指定作为印刷对象图像而选择过的图像的信息以及有关该图像的指示履历信息的管理在设置于学习装置100外部的印刷应用程序中执行。学习装置100的获取部110从该印刷应用程序进行获取包括图像以及指示履历信息的训练数据的处理。
2.2学习处理所采用的数据集的例子
与以上说明一致,在本实施方式的学习处理中所采用的训练数据至少是将图像与关于该图像的指示履历信息建立对应而得到的数据集。通过进行采用这样的数据集的学习处理,可以选择用户喜好的图像作为推荐图像。另外,为了更加反映用户的偏好,不妨将图像和指示履历信息以外的信息也追加至训练数据。
例如,获取部110除了图像和指示履历信息之外,还获取表示在该图像的印刷执行时所采用的印刷设定的印刷设定信息。此处的印刷设定例如包括印刷所采用的印刷介质、印刷速度等的设定项目。印刷设定信息是将印刷介质等设定项目与设定值建立对应而得到的数据。例如,获取部110从上述的打印机驱动程序获取印刷设定信息。学习部120基于将图像、指示履历信息、印刷设定信息建立对应而得到的数据集,对推荐图像的条件进行机器学习。
例如,学习部120基于将图像和印刷设定信息作为输入并将指示履历信息作为对于该输入的正确标签的数据集,而学习推荐图像的条件。在这种情况下,作为学习结果的学习完成模型将图像和表示此时的印刷设定的印刷设定信息作为输入进行受理,并进行推定在该印刷设定中是否应该推荐印刷该图像的处理。
由此,不仅是图像自身的特征,甚至添加了印刷设定的推荐图像的选择也成为可能。如果在进行照片的印刷的情况下,采用照片专用纸作为印刷介质相比于文件等是以低速进行印刷的,因此可以进行高精细的印刷。但是,照片专用纸相比于通常的纸张成本高。另外,在印刷速度为低速的情况下,印刷所需要的时间变长。即,在甚至考虑了成本、时间的情况下,最合适的印刷设定是根据用户的偏好而不同的。根据本实施方式的方案,反映了与印刷设定相关的用户偏好的学习是可能的。
另外,获取部110除了图像与指示履历信息之外,还获取表示该图像的印刷时间的印刷时间信息。印刷时间信息是表示时刻、日期、星期或是它们二者以上的组合的信息。另外,日期可以是某月某日,也可以是某年某月某日,还可以只有某日。例如,获取部110从学习装置100具有的计时部获取印刷时间。此处的计时部例如是实时时钟。另外,计时部也可以设置于学习装置100的外部。学习部120基于将图像、指示履历信息、印刷时间信息建立对应而得到的数据集,对推荐图像的条件进行机器学习。
例如,学习部120基于将图像和印刷时间信息作为输入并将指示履历信息作为对该输入的正确标签的数据集,学习推荐图像的条件。在这种情况下,作为学习结果的学习完成模型将图像以及此时的日期、时刻作为输入进行受理,并进行推定在该日期或者时刻中是否应该推荐印刷该图像的处理。
由此,不仅是图像自身的特征,甚至添加了在什么时间进行印刷的推荐图像的选择也成为可能。例如,根据用户的生活节奏,存在执行印刷的可能性高的时间段和低的时间段的情况。印刷执行频率高的时间段中的推荐图像的通知是有用的,但是在印刷执行频率低的时间段也对推荐图像进行通知,用户可能会有烦恼的感受。根据本实施方式的方案,反映了与印刷时间相关的用户偏好的学习是可能的。另外,也考虑到具有对指定种类的图像尽快进行印刷而其它种类的图像集中在周末进行印刷的偏好的用户。通过将图像与印刷时间信息建立对应并学习,可以获取能够考虑到图像与时间两者的推荐图像的选择的学习结果。
另外,获取部110除了图像和指示履历信息之外,还获取表示该图像的印刷输出目的地的印刷输出目的地信息。印刷输出目的地信息是对印刷所采用的印刷装置10进行指定的信息。指定印刷装置10的信息可以是印刷装置10的序列号,也可以是印刷装置10具备的网络接口的MAC地址,还可以是其它的识別信息。学习部120基于将图像、指示履历信息、印刷输出目的地信息建立对应而得到的数据集,对推荐图像的条件进行机器学习。
例如,学习部120基于将图像和印刷输出目的地信息作为输入并将指示履历信息作为对于该输入的正确标签的数据集而学习推荐图像的条件。在这种情况下,作为学习结果的学习完成模型受理图像和表示现在设定的印刷输出目的地的印刷输出目的地信息,并进行推定是否应该推荐在该图像的该印刷输出目的地进行印刷的处理。
由此,不仅是图像自身的特征,甚至添加了在哪个印刷装置10中进行印刷的推荐图像的选择也成为可能。例如在办公室等,用户可以利用的印刷装置10存在多个的情况。根据印刷装置10,墨水的种类、可否聚集印刷、可否特殊印刷、有无后处理器等是不同的。聚集印刷是将多页数据集合于一页的印刷方式。特殊印刷是水印印刷、条形码印刷等。后处理器例如为通过订书机等将多张印刷结果进行整合的硬件。另外,根据印刷装置10,用户移动至该印刷装置10时的移动时间、移动距离不同。希望通过哪个印刷装置10进行印刷,根据用户的偏好或者根据需要印刷的原稿的种类而不相同。根据本实施方式的方案,通过将图像与印刷输出目的地的印刷装置10建立对应并学习,可以获取能够考虑到图像和印刷装置10两者的推荐图像的选择的学习结果。
另外,获取部110除了图像和指示履历信息之外,还获取表示该图像的保存地点的保存地点信息。保存地点信息是指定图2中的处理装置20的存储部21、云30、服务器系统40、移动终端装置50、摄像装置60等保存印刷对象图像的候补图像的机器的信息。另外,保存地点信息也可以是更具体的信息,例如是能够识别是RAM等内置存储器还是SD卡等外部存储器的信息。学习部120基于将图像、指示履历信息、保存地点信息建立对应而得到的数据集而对推荐图像的条件进行机器学习。
例如,学习部120基于将图像和保存地点信息作为输入并将指示履历信息作为对于该输入的正确标签的数据集而学习推荐图像的条件。在这种情况下,作为学习结果的学习完成模型受理图像以及表示该图像的保存地点的保存地点信息,并进行推定是否应该推荐保存于该保存地点的该图像的印刷的处理。
由此,不仅是图像自身的特征,甚至添加了该图像保存于何处的推荐图像的选择也成为可能。例如,上传到云30的数据被不可逆压缩的情况较多。考虑到喜好高精细的印刷的用户印刷保存于云30的图像的频率低。另一方面,如果有不重视画质的用户,那么可能将保存于云30的图像频繁地作为印刷对象。即希望印刷何种保存地点中的图像,根据用户的偏好而不同。根据本实施方式的方案,通过将图像与保存地点建立对应并学习,可以获取能够考虑到图像与保存地点两者的推荐图像的选择的学习结果。需要指出,此处对云30进行了说明,但是对于其它装置也是同样的。具体而言,根据保存地点,图像的保存形式、与印刷装置10是直接连接还是通过其它装置连接、该连接的通信标准等不同,因此哪一个保存地点适于印刷是根据状况而不同的。因此,包括保存地点的学习处理有用的案例不限定于采用云30的情况。
需要指出,追加于数据集的信息不限定于印刷设定信息、印刷时间信息、印刷输出目的地信息以及保存地点信息中的任一项,也可以追加两项以上的信息。例如,由于通过印刷装置10可以设定的项目以及设定值不同,因此将印刷设定与印刷输出目的地建立关联而进行学习是有用的。另外,由于上传至云30的数据被不可逆地压缩的情况较多,在进行大开本印刷的印刷设定时,画质的劣化容易显著。即将印刷设定与保存地点建立关联而进行学习也是有用的。除此之外,通过将多个信息追加至数据集,考虑了信息间的关联的学习处理成为可能。
2.3学习的具体例子
对基于数据集的学习处理进行详细地说明。在此,对采用神经网络的机器学习进行说明。
图3是神经网络的基本的构造例。神经网络是在计算机上模拟脑功能的数学模型。图3中的一个圆称为节点或者神经元。在图3的例子中,神经网络具有输入层、两个中间层以及输出层。输入层是I,中间层是H1和H2,输出层是O。另外,在图3的例子中,输入层的神经元数是3,中间层的神经元数分别是4,输出层的神经元数是1。但是,中间层的层数、包含于各层的神经元的个数可以有各种各样的变形实施方式。包含于输入层的神经元分别与作为第一中间层的H1的神经元结合。包含于第一中间层的神经元分别与作为第二中间层的H2的神经元结合,包含于第二中间层的神经元分别与输出层的神经元结合。需要指出,中间层也可以改述为隐藏层。
输入层是输出各个输入值的神经元。在图3的例子中,神经网络将x1、x2、x3作为输入进行受理,输入层的各个神经元分别输出x1,x2,x3。需要指出,也可以对于输入值进行一些预处理,输入层的各神经元输出预处理后的值。
在中间层以后的各个神经元中,进行模仿在脑中作为电信号传达信息的样子的运算。在脑中由于根据突触的结合强度,信息传递的容易度发生改变,因此在神经网络中用权重W表现该结合强度。
图3的W1是输入层与第一中间层之间的权重。W1表示包含于输入层的给定的神经元与包含于第一中间层的给定的神经元之间的权重的集合。在用w1 pq表现输入层的第p个神经元与第一中间层的第q个神经元之间的权重的情况下,图3的W1是包括w1 11~w1 34的12个权重的信息。更广义地来说,权重W1是由输入层的神经元数与第一中间层的神经元数相乘的个数的权重组成的信息。
第一中间层中,在第一个神经元中进行下式(1)所示的运算。在一个神经元中,进行对连接于该神经元的前面一层的各个神经元的输出求积和并进一步加上偏差的运算。下式(1)中的偏差是b1。
【数1】
另外,如上式(1)所示的那样,在一个神经元的运算中,采用作为非线性函数的激活函数f。激活函数f例如采用下式(2)所示的ReLU函数。ReLU函数是在变量小于0时为0,大于0时变成变量本身的值的函数。但是,已知激活函数f可以利用各种函数,可以采用Sigmoid函数,还可以采用对ReLU函数进行优化的函数。在上式(1)中示例了h1的运算式,但是第一个中间层的其它神经元也可以进行同样的运算。
【数2】
另外,对于其以后的层也是同样的。例如,在第一中间层与第二中间层之间的权重为W2时,在第二中间层的神经元中,进行采用第一中间层的输出以及权重W2的求积和运算并加上偏差,进行适用于激活函数的运算。
在输出层的神经元中,进行对其前一层的输出加权相加并加上偏差的运算。如果是在图3的例子,那么输出层的前一层是第二中间层。神经网络将输出层的运算结果作为该神经网络的输出。或者,也可以输出对输出层的运算结果进行一些后处理的结果。
从以上的说明得知,为了从输入得到希望的输出,有必要设定适当的权重与偏差。需要指出,下文中也用加权系数标记权重。另外,加权系数也可以作为包括偏差的系数。在学习中,事先准备将给定的输入x与针对该输入的正确输出t建立对应而得到的数据集。正确的输出t是教师数据。可以认为神经网络的学习处理是基于该数据集求出最确切的加权系数的处理。在神经网络的学习处理中,误差反向传播法(Backpropagation)广为人知。
图4是说明误差反向传播法的图。需要指出,在图4中为了将说明简略化,对第一中间层、第二中间层以及输出层中的每层,图示出着眼于一个神经元的处理。另外,神经网络的学习处理不限定于采用误差反向传播法的处理。
在误差反向传播法中,通过重复前向路径和反向路径而更新参数。此处的参数是上述的加权系数。首先,采用输入x与该时间点的加权系数来运算输出y。需要指出,加权系数的初始值可以是各种设定。在图4的例子中进行下式(3)~(5)的运算,从xk运算出y。下式(3)~(5)中的u表示第一中间层的输出,v表示第二中间层的输出。
【数3】
【数4】
【数5】
然后,基于求出的输出y和与输入x对应的教师数据t而求出损失函数E。损失函数E例如为下式(6),但也可以是单纯的差分(y-t),还可以采用其它损失函数。到求出损失函数E为止的处理称为前向路径。
【数6】
由前向路径求出损失函数E后,如下式(7)~(12)所示,采用损失函数E的偏微分更新各个参数。在下式(7)~(12)中,加了“+1”的下标的值表示更新处理后的值。例如b+1表示更新处理后的b的值。另外η表示学习率。学习率不固定,优选根据学习的状况进行改变。
【数7】
【数8】
【数9】
【数10】
【数11】
【数12】
此时,从输出层向输入层使用连锁率计算关于各个参数的损失函数E的偏微分。具体而言,上式(7)~(12)所示的各个偏微分可以通过依次计算下式(13)~(18)而容易地求出。另外,作为激活函数f在采用上式(2)的ReLU函数的情况下,由于微分值是0或1,因此偏微分的运算容易。采用式(7)~(18)的一系列的处理称为反向路径。
【数13】
【数14】
【数15】
【数16】
【数17】
【数18】
在本实施方式的学习处理中,作为神经网络的输入的x是包含于训练数据的图像的像素值。例如,学习部120预先将包含于训练数据的图像调整为纵向v个像素、横向h个像素,并利用v×h个像素值作为神经网络的输入。具体而言,在输入层的一个神经元输入一个像素值。但是,基于包含于训练数据的图像,学习部120进行提取特征量的处理等一些图像处理,该图像处理的结果不妨作为神经网络的输入。另外,如上述的那样,印刷设定信息等的其它信息也可以成为神经网络的输入。另外,教师数据t是包含于训练数据的指示履历信息。例如,指示履历信息是在进行过印刷指示的情况下为1,在未进行印刷指示的情况下为0的信息。另外,指示履历信息不限定于两个值的数据,也可以是根据进行印刷指示的次数而变化值的数据。例如,进行过印刷指示的次数越多则指示履历信息的值越大。作为学习结果的学习完成模型将判定对象图像作为输入进行受理,作为输出,推荐图像的可能性越高则输出值越大的数据。需要指出,判定对象图像在进行了调整纵向v个像素/横向h个像素的处理、特征量的提取处理等与在学习处理中的预处理相同的处理后,输入至神经网络。
需要指出,在图3中,对给定的层的神经元与邻接的层的所有神经元相连接的形式的神经网络进行了说明。但是神经网络的结构不限于此。例如,在本实施方式的机器学习中也可以采用卷积神经网络(CNN:Convolutional neural network)。CNN具有卷积层以及池化层。卷积层进行卷积运算。此处的卷积运算具体而言是滤波处理。池化层进行缩小数据的纵横尺寸的处理。例如在输入图像数据的情况下,CNN是可以考虑了给定的像素与其周边的像素的关系的处理。在CNN中,通过机器学习,对卷积运算采用的滤波的特性进行学习。即在神经网络中的加权系数中包括CNN中的滤波特性。
如以上所述,学习部120通过机器学习生成学习完成模型。例如,学习完成模型是通过学习设定了加权系数的神经网络。如图3所示的那样,学习完成模型具有输入层、中间层以及输出层。然后,学习完成模型基于将图像与指示履历信息建立对应而得到的数据集,设定输入层与中间层之间的加权系数以及中间层与输出层之间的加权系数。如上所述,中间层也可以是两层以上,在这种情况下,给定的中间层与其次的中间层之间的加权系数也通过基于数据集的学习而进行设定。学习完成模型使计算机发挥以下功能:将受理的判定对象图像的数据作为输入而输入至输入层,并进行基于设定的加权系数的运算,从输出层输出表示该判定对象图像是否是推荐图像的数据。
另外,本实施方式的方案也适用于学习完成模型。学习完成模型是用于判定判定对象图像是否是推荐印刷的推荐图像的学习完成模型。学习完成模型具有输入层、中间层以及输出层,并基于将图像与表示用户是否指示过图像的印刷的指示履历信息建立对应而得到的数据集,而设定输入层与中间层之间的加权系数以及中间层与输出层之间的加权系数。学习完成模型使计算机发挥以下功能:将判定对象图像的数据输入至输入层,进行基于设定的加权系数的运算,从输出层输出表示判定对象图像是否是所述推荐图像的数据。
需要指出,以上对学习完成模型是采用神经网络的模型的例子进行了说明。但是,本实施方式中的机器学习不限定于采用神经网络的方案。例如,在本实施方式的方案中,SVM(support vector machine支持向量机)等广为人知的各种方式的机器学习或者由这些方式所发展出的方式的机器学习也可以得到适用。
3.推论处理
3.1推论装置的结构例
图5是示出本实施方式的推论装置的结构例。推论装置是控制印刷装置10的印刷的印刷控制装置200。印刷控制装置200包括受理部210、处理部220以及存储部230。
存储部230存储基于将图像与表示用户是否指示过图像的印刷的指示履历信息建立对应而得到的数据集而对推荐印刷的推荐图像的条件进行了机器学习的学习完成模型。受理部210受理判定对象图像的输入。处理部220基于学习完成模型而进行判定判定对象图像是否是推荐图像的处理。具体而言,处理部220输出表示判定对象图像是否是推荐图像的数据。表示是否是推荐图像的数据不限定于两个值的数据,例如为表示概率的数值数据。
学习完成模型作为人工智能软件的一部分的程序模块而被利用。处理部220按照来自存储于存储部230的学习完成模型的指令,输出表示输入的判定对象图像是否是推荐图像的数据。
印刷控制装置200的处理部220与学习装置100的学习部120同样地由包括处理数字信号的电路以及处理模拟信号的电路中的至少一个的硬件构成。另外,处理部220也可以通过下述的处理器来实现。本实施方式的印刷控制装置200包括存储信息的存储器、以及基于存储于存储器的信息进行动作的处理器。处理器可以是采用CPU、GPU、DSP等各种处理器。存储器可以是半导体存储器,也可以是寄存器,也可以是磁力存储装置,还可以是光学式存储装置。
需要指出,按照学习完成模型的处理部220中的运算,即基于输入数据而用于输出输出数据的运算可以通过软件执行,也可以通过硬件执行。换而言之,上式(1)等求积和运算或者在CNN中的滤波运算也可以由软件执行。或者上述运算也可以通过FPGA(field-programmable gate array现场可编程门阵列)等的电路装置执行。另外,上述运算也可以通过软件与硬件的组合执行。如此,按照来自存储于存储部230的学习完成模型的指令的处理部220的动作可以通过各种各样的形式实现。
另外,印刷控制装置200可以是一个装置,也可以包括多个装置。例如,也可以通过PC等终端装置与服务器系统联合并进行动作而实现印刷控制装置200。另外,如采用图10后述的那样,本实施方式的学习完成模型也可以采用推论处理的结果而进行更新。通过更新学习完成模型,可以适当地反映用户的偏好。但是,也可以在事前制作学习完成模型并固定地采用该学习完成模型。
图6是包括印刷控制装置200的系统的结构例。印刷控制装置200例如包含于与印刷装置10连接的处理装置20。图6所示的系统的结构与图2相同。印刷控制装置200的受理部210将存储于云30、服务器系统40、移动终端装置50、摄像装置60等各种存储介质的图像作为判定对象图像进行受理。处理部220在判定该判定对象图像是推荐图像的情况下,对用户进行建议印刷的通知。例如,处理装置20的印刷应用程序进行推荐图像的显示处理、以及建议印刷的文本等的显示处理。另外,在用户进行推荐图像的印刷操作的情况下,印刷应用程序判断该推荐图像是印刷对象图像。因此印刷应用程序采用打印机驱动程序对印刷装置10指示推荐图像的印刷。由此,可以顺利地执行推荐图像的提示处理以及印刷处理。需要指出,印刷控制装置200不限定为包含于处理装置20的装置,也可以包含于其它的装置。但是,如果考虑顺利地进行印刷装置10的控制,那么优选印刷控制装置200包含于与印刷装置10直接连接的机器。
3.2推论处理的具体例
图7是示出本实施方式的推论处理中的输入与输出的关系的图。需要指出,在图7中说明进行神经网络运算的例子。推论处理中的输入至少包括判定对象图像。另外,推论处理中的输入也可以包括处理定时中的印刷设定信息、表示处理定时的日期或时刻的印刷时间信息、指定作为输出目的地而设定的印刷装置10的印刷输出目的地信息,判定对象图像的保存地点信息。印刷设定信息以及印刷输出目的地信息从打印机驱动程序获取。日期、时刻的印刷时间信息从实时时钟等计时部获取。保存地点信息是该判定对象图像的获取源,因此可以从接收部210获取。
但是,在学习处理中如上述的那样,印刷设定信息、印刷时间信息、印刷输出目的地信息以及保存地点信息并非必要,也可以省略一部分或者全部。处理部220获取印刷设定信息等中被采用作为学习处理中的训练数据的信息并作为推论处理中的输入。另外,如采用图11后述的那样,一部分信息被采用作为学习处理中的教师数据,也可以成为推论处理中的输出。
处理部220基于这些输入进行神经网络运算。然后,处理部220输出表示判定对象图像是否是推荐图像的信息作为输出。例如,输出为r以上且s以下范围的数值数据,并为判定判定对象图像是推荐图像的概率越高值越大的数据。
图8是说明处理部220中的推论处理的流程图。处理部220例如在对给定的存储介质追加新的图像的定时执行推论处理。处理部220监视作为预先监视对象而设定的存储介质(S101)。在图6所示的例子中,处理部220获取保存于处理装置20本身的存储部21、云30、服务器系统40、移动终端装置50、摄像装置60的图像的信息。需要指出,存储部21可以是与存储学习完成模型的存储部230相同的存储介质,也可以是不同的存储介质。在S101的处理中获取的图像的信息不必要是图像数据这种信息,例如是文件名、Exif(Exchangeableimage file format可交换图像文件格式)等元数据、缩略图像等相对而言数据量较少的信息。
处理部220基于通过S101获取的图像的信息,判定是否在监视对象的存储介质追加了新的图像(S102)。例如处理部220基于在最新的S101的处理中获取的信息与在此之前过去所执行的S101的处理中获取的信息的比较处理,判定是否追加了新的图像。在没有追加新的图像的情况下(S102中的“否”),不进行S103以后的处理并结束处理。
在追加有新的图像的情况下(S102中的“是”),处理部220对受理部210指示该判定对象图像的获取。另外,受理部210或者处理部220根据需要收集印刷设定信息等。然后,处理部220基于至少包括判定对象图像的输入而进行神经网络运算(S103)。
接着,处理部220基于神经网络运算的结果,判定判定对象图像是否是推荐图像(S104)。例如,在神经网络的输出为r以上s以下的范围的数值数据的情况下,处理部220在输出值为给定的阈值Th(Th是满足r<Th<s的数)以上时,判定判定对象图像是推荐图像。
在判定判定对象图像是推荐图像的情况下(S104中的“是”),处理部220进行推荐判定对象图像的印刷的通知。例如,印刷控制装置200包括未图示的显示部,处理部220进行在显示部显示判定对象图像以及推荐印刷意思的文本等的处理。此处的显示处理例如为弹出画面的显示处理。或者,印刷控制装置200包括扬声器、发光部等报告部,处理部220也可以进行采用该报告部的报知处理。在判定判定对象图像不是推荐图像情况下(S104中的“否”),不进行S105的处理并结束处理。另外,通知处理不限定于进行还是不进行通知的两种处理。例如,处理部220也可以通过将神经网络的输出分成r以上且小于Th1、Th1以上且小于Th2、Th2以上且s以下的三类而进行不同形式的三种类的通知。Th1和Th2是满足r<Th1<Th2<s的数。例如,处理部220在输出值为Th2以上的情况下进行通常的通知处理,在为Th1以上且小于Th2的情况下进行警报通知。输出在Th1以上且小于Th2的情况下与在Th2以上的情况下相比,推论的可信度较低,因此通过具有警报可以向用户建议进行慎重地应对。除此之外,关于具体的通知处理可以有多种变形的实施方式。
处理部220定期地执行图8中所示的处理。由此,在对作为监视对象的存储介质追加新的图像的情况下,可以适当地判断是否推荐该新的图像的印刷。
需要指出,处理部220进行推论处理的定时不限定于判定追加了新的图像的定时。例如,处理部220也可以通过与其它应用程序联合而判定事件的发生。在这种情况下,处理部220将事件的发生作为触发,并进行建议适合该事件的图像的印刷的通知处理。此处的应用程序是日历应用程序、联络目的地应用程序等。事件考虑为生日、圣诞节等各种各样的事件。
在事件作为触发的情况下,难以对判定对象图像进行单个地限定。例如,处理部220将存储于可以访问的存储介质的所有图像作为对象进行神经网络运算,对各个图像判定是否是推荐图像。或者,考虑处理负荷的减轻以及处理时间的缩短,可以将能够访问的图像中的一部分图像作为对象而判定是否是推荐图像。
4.基于推论结果的追加学习
在以上的说明中,对学习处理和推论处理进行了个别地说明。例如,在学习阶段中,预先积累训练数据并基于积累的训练数据而进行学习处理。另外,在推论阶段中,通过继续使用生成的学习完成模型进行推论处理。在这种情况下,一次生成的学习完成模型是固定的且假定不进行更新。
但是,本实施方式的方案不限定于此,在推论阶段的处理结果也可以被反馈至学习处理。具体而言,学习装置100的学习部120基于将基于机器学习的结果而推荐的推荐图像与表示对于该推荐图像是否进行过印刷的指示的指示履历信息建立对应而得到的数据集,而对推荐图像的条件进行机器学习。由此,基于用户的实际的印刷指示而更新学习完成模型,因此更加依照用户的偏好的推荐图像的选择成为可能。
例如,在事前的学习处理中采用通用的训练数据来生成学习完成模型,合乎用户的偏好的学习也可以与推论处理并行执行。或者,也可以跳过事前的学习处理本身。在这种情况下,加权系数的初始值在不进行学习处理的情况下被设定。或者,也可以在事先的学习处理中采用用户固有的训练数据进行学习处理。在这种情况下,不进行追加学习也可以有一定程度对用户的偏好进行反映的推定处理,但是通过进行追加学习能够提高精度并且也可以应对用户的偏好的变化等。
图9是示出进行追加学习时的学习装置100的结构例的图。学习装置100除了获取部110以及学习部120之外,还包括对学习部120进行了机器学习的学习完成模型进行存储的存储部230、以及基于学习完成模型而判定判定对象图像是否是推荐图像的处理部220。另外,学习装置100也可以包括受理判定对象图像的受理部210。即图9中的学习装置100除了图1所示的结构之外,还包括与图5所示的印刷控制装置200同样的结构,是可以作为印刷控制装置200而动作的学习装置。
图10是说明进行追加学习时的学习装置100的处理的流程图。在图10中,对判定出在存储介质中追加了新的图像成为推定处理的触发的例子进行说明,但如上述那样,采用事件发生等其它的触发也可以。
图10的S201~S205与图8的S101~S105是相同的。通过判定判定对象图像是推荐图像而执行通知处理时(S205),处理部220判定是否实际印刷了推荐图像(S206)。例如,处理部220在S205的通知处理中,也可以通过启动印刷应用程序来显示指示印刷执行的按钮等。在这种情况下,S206的判定是判定对该按钮是否进行了操作的判定。或者处理部220也可以在S205的通知后,在给定的期间,通过监视打印机驱动程序来收集是否进行了对于推荐图像的印刷指示的信息。
在未进行对于推荐图像的印刷指示的情况下(S206中的“否”),用户不希望判定对象图像的印刷,因此判定为采用学习完成模型的推论结果不适当。因此学习部120基于将作为推荐图像而提示的图像与表示未进行印刷指示的意思的指示履历信息建立对应而得到的数据集进行学习处理(S207)。由此,进行在订正不适当的推论的方向上的追加学习,追加学习后的学习完成模型更能够进行按照用户的偏好的输出。
需要指出,在图10中示出了在推论结果错误的情况下进行追加学习的例子,但是不限定于此。例如,学习部120也可以在推论结果正确的情况下,即在进行了对推荐图像的印刷指示的情况下进行学习处理。
5.变形例
以上,对采用印刷设定信息作为学习处理以及推论处理中的输入数据的例子进行了说明。即在学习处理中,将图像、指示履历信息、印刷设定信息建立对应而得到的数据集当中,图像以及印刷设定信息作为输入而指示履历信息作为教师数据。在推论处理当中,若输入判定对象图像和处理定时中的印刷设定信息,则通过学习完成模型输出表示判定对象图像是否是推荐图像的数据。
但是,印刷设定信息的利用形式不限定于此。例如,也可以采用印刷设定信息作为学习处理以及推论处理中的输出数据。在学习处理中,将图像、指示履历信息、印刷设定信息建立对应而得到的数据集当中,图像作为输入而指示履历信息以及印刷设定信息作为教师数据。例如,在印刷设定信息包括表示是否使用照片专用纸的第一设定信息以及表示印刷速度的第二设定信息的情况下,神经网络的输出层至少具有三个神经元。第一神经元是用于输出将输入的图像是否作为推荐图像的神经元,而指示履历信息成为教师数据。第二神经元是用于输出是否应该采用照片专用纸印刷输入的图像的神经元,而印刷设定当中的第一设定信息成为教师数据。第三神经元是用于输出对输入的图像通过什么样的印刷速度进行印刷的神经元,而印刷设定信息当中的第二设定信息成为教师数据。
图11是示出本变形例的推论处理中的输入与输出的关系的图。需要指出,在图11中省略印刷时间信息、印刷输出目的地信息以及保存地点信息。在推论处理中,神经网络将判定对象图像作为输入进行受理,通过进行采用经由上述学习处理而学习到的加权系数的神经网络运算来输出三个输出数据。三个输出是表示判定对象图像是否是推荐图像的数据、表示是否推荐使用照相专用用纸来印刷判定对象图像的数据、以及表示判定对象图像的印刷的推荐印刷速度的数据。由此,可以基于图像的特征而建议适当的印刷介质或印刷速度。
另外,以上对印刷设定信息进行了说明,但是也可以将印刷输出目的地信息作为学习处理以及推论处理的输出数据加以利用。例如,学习装置100将印刷输出目的地信息作为教师数据进行学习处理。印刷控制装置200进行如下的推论处理:将指定判定对象图像的印刷的推荐输出目的地的数据作为输出数据而输出。由此,不是固定地利用设定完成的印刷输出目的地,而是可以从多个印刷输出目的地的候补之中提示适当的印刷输出目的地。因此,能够提高用户的便利性。
另外,也可以将印刷时间信息作为学习处理以及推论处理的输出数据加以利用。学习装置100将印刷时间信息作为教师数据进行学习处理。印刷控制装置200进行将判定对象图像的推荐印刷时间作为输出数据进行输出的推论处理。由此,不是在执行推论处理的定时中即刻建议印刷,而是可以在根据用户的适当的定时中建议推荐图像的印刷。例如,印刷控制装置200的处理部220在判定判定对象图像是推荐图像的情况下,不是即刻进行通知处理,而是根据输出数据等到变为指定的印刷时间再执行通知处理。
需要指出,设想将保存地点信息作为输入数据加以利用。但是如果考虑在相同内容的图像存储于多个存储介质的情况下,采用学习完成模型来決定印刷存储于哪一个存储介质中的图像的情况等,那么不妨利用保存地点信息作为输出数据。
如以上那样,在本实施方式的方案中,可以满足图像作为输入数据而指示履历信息作为输出数据这样的条件,印刷设定信息等其他信息也可以作为输入数据被采用,也可以作为输出数据被采用,也可以从处理对象中除去。另外,也可以追加图7、图11中未图示的其它信息,对学习处理以及推论处理所利用的数据可以有各种各样的变形实施方式。
如以上那样,本实施方式的学习装置包括获取图像以及表示对图像是否进行过印刷的指示的指示履历信息的获取部、以及基于将图像与指示履历信息建立对应而得到的数据集对应该推荐印刷的推荐图像的条件进行机器学习的学习部。
根据本实施方式的方案,通过进行采用图像以及对该图像的印刷的指示履历信息的机器学习,可以适当地学习用于选择推荐图像的条件。通过进行基于学习结果的处理,可以自动地选择应该推荐印刷的图像,因此可以减轻用户的负担。
另外,本实施方式的学习部也可以基于将基于机器学习的结果而推荐的推荐图像与表示对推荐图像是否进行过印刷的指示的指示履历信息建立对应而得到的数据集,对推荐图像的条件进行机器学习。
由此,基于学习结果而推荐的推荐图像根据实际上是否成为了印刷指示的对象而可以进行追加的学习。因此,学习结果可以更新成更适当的结果。
另外,本实施方式的学习部也可以基于将图像、指示履历信息、表示图像的印刷设定的印刷设定信息建立对应而得到的数据集,对推荐图像的条件进行机器学习。
由此,除了图像和指示履历信息之外,还可以进行与印刷设定相关的学习。
另外,本实施方式的学习部也可以基于将图像、指示履历信息、表示图像的印刷时间的印刷时间信息建立对应而得到的数据集,对推荐图像的条件进行机器学习。
由此,除了图像和指示履历信息之外,还可以进行与印刷时间相关的学习。
另外,本实施方式的学习部也可以基于将图像、指示履历信息、表示印刷输出目的地的印刷输出目的地信息建立对应而得到的数据集,对推荐图像的条件进行机器学习。
由此,除了图像和指示履历信息之外,还可以进行与印刷输出目的地相关的学习。
另外,本实施方式的学习部也可以基于将图像、指示履历信息、表示图像的保存地点的保存地点信息建立对应而得到的数据集,对推荐图像的条件进行机器学习。
由此,除了图像和指示履历信息之外,还可以进行与保存地点相关的学习。
另外,本实施方式的学习装置可以包括存储通过学习部进行机器学习而生成的学习完成模型的存储部、以及基于学习完成模型来判定判定对象图像是否是推荐图像的处理部。
由此,在学习装置中可以执行基于学习结果的推荐图像的判定处理。
另外,本实施方式的学习部也可以通过机器学习生成学习完成模型。学习完成模型具有输入层、中间层、输出层,并基于将图像与指示履历信息建立对应而得到的数据集,设定输入层与中间层之间以及中间层与输出层之间的加权系数。学习完成模型使计算机发挥以下功能:将作为输入而受理的判定对象图像的数据输入至输入层,并进行基于已设定的加权系数的运算,从输出层输出表示判定对象图像是否是推荐图像的数据。
由此,通过经由学习处理来学习加权系数,可以生成能够适当地判定是否是推荐图像的学习完成模型。更具体而言,可以生成采用神经网络的学习完成模型。
另外,本实施方式的印刷控制装置是控制印刷装置的印刷的印刷控制装置,包括存储部、受理部以及处理部。存储部存储基于将图像与表示对图像是否进行过印刷的指示的指示履历信息建立对应而得到的数据集对推荐印刷的推荐图像的条件进行了机器学习的学习完成模型。受理部受理判定对象图像的输入。处理部基于学习完成模型来判定判定对象图像是否是推荐图像。
由此,基于作为机器学习的结果的学习完成模型,可以适当地判定是否推荐给定的判定对象图像的印刷。另外,印刷控制装置通过进行上述判定,可以顺利地执行在进行推荐图像的印刷指示时的印刷处理。
本实施方式的学习完成模型是用于判定判定对象图像是否是推荐印刷的推荐图像的学习完成模型。学习完成模型具有输入层、中间层以及输出层,并基于将图像与表示对图像是否进行过印刷的指示的指示履历信息建立对应而得到的数据集来设定输入层与中间层之间以及中间层与输出层之间的加权系数。另外,学习完成模型使计算机发挥以下功能:将判定对象图像的数据输入至输入层,进行基于已设定的加权系数的运算,而从输出层输出表示判定对象图像是否是推荐图像的数据。
需要指出,虽然上文对本实施方式进行了详细的说明,但是本质上不脱离本实施方式的新的设想和效果的多种变形对于本领域技术人员而言是容易理解的。因此,这些变形例都包含在本公开的范围内。例如,在说明书或者附图中,至少一次与更广义或者同义的不同用语共同记载的用语,无论在说明书或者附图的任何地方也都可以替换为不同用语。另外,本实施方式以及变形例的所有组合也都包含在本公开的范围内。另外,学习装置、印刷控制装置以及包括这些装置的系统的结构以及动作等也不限定为本实施方式中说明的那样,而可以是各种各样的变形实施形式。
Claims (10)
1.一种学习装置,其特征在于,包括:
获取部,获取图像以及表示对所述图像是否进行过印刷的指示的指示履历信息;以及
学习部,基于将所述图像与所述指示履历信息建立对应而得到的数据集,对应该推荐印刷的推荐图像的条件进行机器学习。
2.根据权利要求1所述的学习装置,其特征在于,
所述学习部基于将基于所述机器学习的结果而推荐的所述推荐图像与表示对所述推荐图像是否进行过印刷的指示的所述指示履历信息建立对应而得到的数据集,对所述推荐图像的条件进行机器学习。
3.根据权利要求1或2所述的学习装置,其特征在于,
所述学习部基于将所述图像、所述指示履历信息、表示所述图像的印刷设定的印刷设定信息建立对应而得到的数据集,对所述推荐图像的条件进行机器学习。
4.根据权利要求1或2所述的学习装置,其特征在于,
所述学习部基于将所述图像、所述指示履历信息、表示所述图像的印刷时间的印刷时间信息建立对应而得到的数据集,对所述推荐图像的条件进行机器学习。
5.根据权利要求1或2所述的学习装置,其特征在于,
所述学习部基于将所述图像、所述指示履历信息、表示印刷输出目的地的印刷输出目的地信息建立对应而得到的数据集,对所述推荐图像的条件进行机器学习。
6.根据权利要求1或2所述的学习装置,其特征在于,
所述学习部基于将所述图像、所述指示履历信息、表示所述图像的保存地点的保存地点信息建立对应而得到的数据集,对所述推荐图像的条件进行机器学习。
7.根据权利要求1或2所述的学习装置,其特征在于,包括:
存储部,存储所述学习部通过所述机器学习而生成的学习完成模型;以及
处理部,基于所述学习完成模型,判定判定对象图像是否是所述推荐图像。
8.根据权利要求1或2所述的学习装置,其特征在于,
所述学习部通过所述机器学习生成学习完成模型,
所述学习完成模型:
具有输入层、中间层、输出层,
基于将所述图像与所述指示履历信息建立对应而得到的所述数据集,设定所述输入层与所述中间层之间以及所述中间层与所述输出层之间的加权系数,
使计算机发挥以下功能:将作为输入而受理的判定对象图像的数据输入至所述输入层,并进行基于已设定的所述加权系数的运算,从所述输出层输出表示所述判定对象图像是否是所述推荐图像的数据。
9.一种印刷控制装置,其特征在于,是控制印刷装置的印刷的印刷控制装置,包括:
存储部,存储基于将图像与表示对所述图像是否进行过印刷的指示的指示履历信息建立对应而得到的数据集来对推荐印刷的推荐图像的条件进行了机器学习的学习完成模型;
受理部,受理判定对象图像的输入;以及
处理部,基于所述学习完成模型,判定所述判定对象图像是否是所述推荐图像。
10.一种存储装置,其特征在于,存储有学习完成模型,所述学习完成模型是用于判定判定对象图像是否是推荐印刷的推荐图像的学习完成模型,并且,所述学习完成模型:
具有输入层、中间层、输出层,
基于将图像与表示对所述图像是否进行过印刷的指示的指示履历信息建立对应而得到的数据集,设定所述输入层与所述中间层之间以及所述中间层与所述输出层之间的加权系数,
使计算机发挥以下功能:将作为输入而受理的所述判定对象图像的数据输入至所述输入层,并进行基于已设定的所述加权系数的运算,从所述输出层输出表示所述判定对象图像是否是所述推荐图像的数据。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-236021 | 2018-12-18 | ||
JP2018236021A JP2020098444A (ja) | 2018-12-18 | 2018-12-18 | 学習装置、印刷制御装置及び学習済モデル |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111340178A true CN111340178A (zh) | 2020-06-26 |
Family
ID=71073727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911293040.9A Pending CN111340178A (zh) | 2018-12-18 | 2019-12-16 | 学习装置、印刷控制装置以及存储装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11055032B2 (zh) |
JP (1) | JP2020098444A (zh) |
CN (1) | CN111340178A (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6954260B2 (ja) * | 2018-12-18 | 2021-10-27 | セイコーエプソン株式会社 | 学習装置、印刷制御装置及び学習済モデル |
JP7488642B2 (ja) * | 2019-11-20 | 2024-05-22 | キヤノン株式会社 | プリントシステム、サーバ、及び方法 |
JP7287266B2 (ja) * | 2019-12-20 | 2023-06-06 | 沖電気工業株式会社 | 機械学習装置、データ処理システム、機械学習方法、およびデータ処理方法 |
JP7440388B2 (ja) | 2020-09-28 | 2024-02-28 | 株式会社日立製作所 | 画像診断支援装置および画像処理方法 |
CN112559042A (zh) * | 2020-12-16 | 2021-03-26 | 北京地平线信息技术有限公司 | 执行神经网络运算的指令生成方法、图像处理方法及装置 |
US11650766B2 (en) * | 2021-10-18 | 2023-05-16 | Xerox Corporation | System and method for optimizing a printer setup |
JP2023112938A (ja) * | 2022-02-02 | 2023-08-15 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、プログラム、及び記録媒体 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1367079A (zh) * | 2001-01-24 | 2002-09-04 | 海德堡印刷机械股份公司 | 调节印刷机印刷技术参数和其他与印刷有关参数的方法 |
JP2007072823A (ja) * | 2005-09-08 | 2007-03-22 | Seiko Epson Corp | 画像選択装置および画像選択方法 |
CN102270107A (zh) * | 2010-06-07 | 2011-12-07 | 夏普株式会社 | 打印系统以及打印设定提案方法 |
CN102713972A (zh) * | 2009-12-23 | 2012-10-03 | 诺基亚公司 | 使用神经网络的像素信息再现 |
US20150363140A1 (en) * | 2013-01-24 | 2015-12-17 | Hewlett-Packard Development Company, L.P. | Composite To-Print Product |
JP2018149738A (ja) * | 2017-03-13 | 2018-09-27 | 株式会社リコー | 画像形成装置及び画像形成システム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4492555B2 (ja) | 2006-02-07 | 2010-06-30 | セイコーエプソン株式会社 | 印刷装置 |
JP2010173323A (ja) | 2010-02-10 | 2010-08-12 | Seiko Epson Corp | 印刷装置 |
JP6266238B2 (ja) * | 2013-07-03 | 2018-01-24 | クラリオン株式会社 | 接近物検出システム、及び車両 |
US10817749B2 (en) * | 2018-01-18 | 2020-10-27 | Accenture Global Solutions Limited | Dynamically identifying object attributes via image analysis |
JP6954260B2 (ja) * | 2018-12-18 | 2021-10-27 | セイコーエプソン株式会社 | 学習装置、印刷制御装置及び学習済モデル |
-
2018
- 2018-12-18 JP JP2018236021A patent/JP2020098444A/ja active Pending
-
2019
- 2019-12-16 US US16/714,897 patent/US11055032B2/en active Active
- 2019-12-16 CN CN201911293040.9A patent/CN111340178A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1367079A (zh) * | 2001-01-24 | 2002-09-04 | 海德堡印刷机械股份公司 | 调节印刷机印刷技术参数和其他与印刷有关参数的方法 |
JP2007072823A (ja) * | 2005-09-08 | 2007-03-22 | Seiko Epson Corp | 画像選択装置および画像選択方法 |
CN102713972A (zh) * | 2009-12-23 | 2012-10-03 | 诺基亚公司 | 使用神经网络的像素信息再现 |
CN102270107A (zh) * | 2010-06-07 | 2011-12-07 | 夏普株式会社 | 打印系统以及打印设定提案方法 |
US20150363140A1 (en) * | 2013-01-24 | 2015-12-17 | Hewlett-Packard Development Company, L.P. | Composite To-Print Product |
JP2018149738A (ja) * | 2017-03-13 | 2018-09-27 | 株式会社リコー | 画像形成装置及び画像形成システム |
Also Published As
Publication number | Publication date |
---|---|
US20200192609A1 (en) | 2020-06-18 |
JP2020098444A (ja) | 2020-06-25 |
US11055032B2 (en) | 2021-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111340178A (zh) | 学习装置、印刷控制装置以及存储装置 | |
JP6954260B2 (ja) | 学習装置、印刷制御装置及び学習済モデル | |
US9501722B2 (en) | Image classifying apparatus for classifying images and electronic album creating apparatus for creating electronic album consisting of plural images | |
US20200393998A1 (en) | Multifunction Printer and Printer Engine Defect Detection and Handling Using Machine Learning | |
US10831417B1 (en) | Convolutional neural network based copy or print wizard | |
JP2022029702A (ja) | 学習システム、電子機器、及びその制御方法、並びにプログラム | |
JP2023529380A (ja) | ユーザの好みを反映した機械学習ベースの画像圧縮設定 | |
US11436456B2 (en) | Device management system, server, and method of controlling device management system | |
CN107609177A (zh) | 拍照素材的推荐方法、装置、终端设备及介质 | |
JP2018010435A (ja) | 販売予測装置、販売予測方法、およびプログラム | |
JP2021033571A (ja) | 情報処理装置、制御方法およびプログラム | |
US11237774B2 (en) | System and control method | |
JP6954322B2 (ja) | 情報処理装置、及び学習装置 | |
JP7443030B2 (ja) | 学習方法、プログラム、学習装置、および、学習済みウエイトの製造方法 | |
CN113052025A (zh) | 图像融合模型的训练方法、图像融合方法及电子设备 | |
JP2021114097A (ja) | 画像判定システム | |
JPWO2018211602A1 (ja) | 学習装置、推定装置、学習方法及びプログラム | |
US20140098405A1 (en) | Printing instruction apparatus, printing apparatus, and printing instruction method | |
JP5556330B2 (ja) | 画像処理装置、画像処理方法及びそのプログラム | |
JPWO2015029115A1 (ja) | 電子書籍システム、電子書籍システムの動作方法、記録媒体、及び、プログラム | |
JP6896608B2 (ja) | 情報提示装置、方法およびプログラム | |
US11294606B2 (en) | Print system including a learned model to select a printer | |
US11743396B2 (en) | Electronic album generating apparatus, electronic album generating method, and non-transitory computer-readable storage medium | |
JP6992780B2 (ja) | 情報処理装置、学習装置及び学習済モデル | |
JP2011034477A (ja) | レイアウト装置およびレイアウト方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200626 |