CN117377968A - 信息处理装置 - Google Patents
信息处理装置 Download PDFInfo
- Publication number
- CN117377968A CN117377968A CN202180098589.1A CN202180098589A CN117377968A CN 117377968 A CN117377968 A CN 117377968A CN 202180098589 A CN202180098589 A CN 202180098589A CN 117377968 A CN117377968 A CN 117377968A
- Authority
- CN
- China
- Prior art keywords
- information processing
- processing apparatus
- data
- parameter
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 187
- 238000000034 method Methods 0.000 claims abstract description 104
- 230000008569 process Effects 0.000 claims abstract description 52
- 238000009826 distribution Methods 0.000 claims abstract description 28
- 239000000284 extract Substances 0.000 claims abstract description 10
- 238000010586 diagram Methods 0.000 claims description 154
- 230000006870 function Effects 0.000 claims description 44
- 238000004088 simulation Methods 0.000 claims description 32
- 238000009827 uniform distribution Methods 0.000 claims description 20
- 230000009467 reduction Effects 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 239000000758 substrate Substances 0.000 claims description 9
- 238000002474 experimental method Methods 0.000 claims description 8
- 238000013526 transfer learning Methods 0.000 claims description 5
- 230000008485 antagonism Effects 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 61
- 238000012545 processing Methods 0.000 description 60
- 238000013527 convolutional neural network Methods 0.000 description 35
- 238000004364 calculation method Methods 0.000 description 29
- 238000010801 machine learning Methods 0.000 description 29
- 239000003990 capacitor Substances 0.000 description 21
- 238000004422 calculation algorithm Methods 0.000 description 17
- 230000008859 change Effects 0.000 description 13
- 239000004065 semiconductor Substances 0.000 description 13
- 238000013135 deep learning Methods 0.000 description 12
- 230000002829 reductive effect Effects 0.000 description 12
- 230000008878 coupling Effects 0.000 description 11
- 238000010168 coupling process Methods 0.000 description 11
- 238000005859 coupling reaction Methods 0.000 description 11
- 238000013461 design Methods 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 238000011960 computer-aided design Methods 0.000 description 7
- 238000003066 decision tree Methods 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000002068 genetic effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000004378 air conditioning Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000009795 derivation Methods 0.000 description 3
- 229910003460 diamond Inorganic materials 0.000 description 3
- 239000010432 diamond Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000005684 electric field Effects 0.000 description 3
- 230000005672 electromagnetic field Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012880 independent component analysis Methods 0.000 description 3
- 230000008707 rearrangement Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000011157 data evaluation Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000005669 field effect Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000002945 steepest descent method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 239000003985 ceramic capacitor Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003071 parasitic effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Abstract
信息处理装置(1)处理表现特定空间中的至少1个数值数据(Nm11)的分布的图像数据(Im1)。信息处理装置(1)具备存储部(30)和推断部(20)。在存储部(30)中,保存有图像辨识程序。推断部(20)通过执行图像辨识程序,从图像数据(Im1)提取与至少1个数值数据(Nm11)有关的特定信息(Ft)。具有与至少1个数值数据(Nm11)的各个对应的外观的符号配置于在特定空间中与该数值数据(Nm11)关联的位置。
Description
技术领域
本公开涉及进行与图像数据有关的处理的信息处理装置。
背景技术
以往,已知进行与图像数据有关的处理的信息处理装置。例如,在日本特开2018-92453号公报(专利文献1)中,公开了学习装置,通过对通过合并基于多个传感器数据的数值的像素信息而生成的图像数据赋予教师标签来生成学习用数据,通过针对该学习数据的机器学习生成学习模型。根据该学习装置,能够将多个数值数据集中变换为易于分析的形式,并且通过机器学习一次学习多个数值数据。
现有技术文献
专利文献
专利文献1:日本特开2018-92453号公报
发明内容
专利文献1公开的多个传感器配置于各种位置。由多个传感器分别取得的多个传感器数据各自和与该传感器数据对应的传感器的位置的关联性可能成为根据多个传感器数据生成的学习用数据固有的特征。但是,在专利文献1中,未考虑使多个传感器的位置信息反映到学习用数据。
本公开是为了解决如上述的课题而完成的,其目的在于,利用进行处理的信息处理装置简易地实现将数值数据和位置信息的关联性反映到针对图像数据的该处理。
本公开的一个方式所涉及的信息处理装置处理表现特定空间中的至少1个数值数据的分布的图像数据。信息处理装置具备存储部和推断部。在存储部中保存有图像辨识程序。推断部通过执行图像辨识程序而从图像数据提取与至少1个数值数据有关的特定信息。具有与至少1个数值数据各自对应的外观的符号(symbol)配置于在特定空间中与该数值数据关联的位置。
本公开的其他方式所涉及的信息处理装置处理表现特定空间中的至少1个数值数据的分布的图像数据。信息处理装置具备存储部和学习部。在存储部中保存有从图像数据提取与至少1个数值数据有关的特定信息的图像辨识模型。学习部将图像辨识模型作为已学习模型。具有与至少1个数值数据各自对应的外观的符号配置于在特定空间中与该数值数据关联的位置。
根据本公开所涉及的信息处理装置,通过将具有与至少1个数值数据各自对应的外观的符号配置于在特定空间中与该数值数据关联的位置,能够利用进行处理的信息处理装置简易地实现将数值数据和位置信息的关联性反映到针对图像数据的该处理。
附图说明
图1是示出实施方式1所涉及的信息处理装置的功能结构的框图。
图2是示出作为由图1的信息处理装置处理的图像数据的一个例子的图像数据的图。
图3是示出配置有空调机以及多个温度传感器的作为三维空间的空调空间的图。
图4是示出作为在印刷基板上构成的电路的一个例子的降压斩波电路的电路结构的图。
图5是示出作为与图4的降压斩波电路对应的图像数据的一个例子的图像数据的图。
图6是示出作为与图4的降压斩波电路对应的图像数据的其他例子的图像数据的图。
图7是示出图1的信息处理装置的硬件结构的框图。
图8是示出实施方式1的变形例1所涉及的信息处理装置的功能结构的框图。
图9是示出图8的信息处理装置的硬件结构的框图。
图10是示出实施方式1的变形例2所涉及的信息处理装置的功能结构的框图。
图11是示出图10的信息处理装置的硬件结构的框图。
图12是示出实施方式2所涉及的信息处理装置的功能结构的框图。
图13是示出图12的信息处理装置的硬件结构的框图。
图14是示出图12的数值数据组的一个例子的图。
图15是示出某个参数和目标值的对应关系的散布图。
图16是示出其他参数和目标值的对应关系的散布图。
图17是示出2个参数的对应关系的散布图。
图18是示出等高线的一个例子的图。
图19是示出直方图的一个例子的图。
图20是根据多个数值数据形成的散布图以及将该散布图的作为成为最大值的包络线的直线和作为成为最小值的包络线的直线一并示出的图。
图21是根据多个数值数据形成的散布图以及将该散布图的作为成为最大值的包络线的抛物线和作为成为最小值的包络线的抛物线一并示出的图。
图22是示出由图12的推断部进行的处理的一个例子的流程图。
图23是示出实施方式3所涉及的信息处理装置的功能结构的框图。
图24是示出图23的信息处理装置的硬件结构的框图。
图25是示意地示出输入到图像辨识模型的信号被更新信号更新的样子的图。
图26是示出作为手写数字的分类问题的MNIST的图像数据被更新的样子的图。
图27是示出作为实施方式4所涉及的符号的一个例子的符号的结构的图。
图28是示出作为实施方式4所涉及的符号的其他例子的符号的结构的图。
图29是示出实施方式5所涉及的信息处理装置的功能结构的框图。
图30是示出图29的信息处理装置的硬件结构的框图。
图31是示出实施方式7所涉及的信息处理装置的功能结构的框图。
图32是示出图31的信息处理装置的硬件结构的框图。
图33是示出分布偏移的散布图的一个例子的图。
图34是示出均匀分布的一个例子的图。
图35是示出实施方式8所涉及的信息处理装置的功能结构的框图。
图36是示出图35的信息处理装置的硬件结构的框图。
图37是示出使用设为已学习的图35的图像生成模型生成的作为电子电路的一部分的噪声滤波器的图像数据的图。
图38是示出通过设为已学习的图35的图像生成模型生成的噪声滤波器的其他图像数据的图。
(标号说明)
1、1A、1B、2、3、5、7、8:信息处理装置;9:降压斩波电路;10、10A:学习部;20:推断部;30:存储部;40、40A:图生成部;50:图像更新部;51:处理电路;52:存储器;53:存储设备;54:输入输出部;60:维度削减部;70:噪声滤波器;80:图像生成部;90:印刷基板;91:功率半导体;92:二极管;93:电感器;Ac:空调机;Pg1、Pg1A:机器学习程序;Pg2:图像辨识程序;Pg3、Pg7:图生成程序;Pg4:图像更新程序;Pg6:维度削减程序;Pg8:图像生成程序;Stm:温度传感器。
具体实施方式
以下,参照附图,详细说明本公开的实施方式。此外,在图中对同一或者相当部分附加同一标号而原则上不反复其说明。
实施方式1.
图1是示出实施方式1所涉及的信息处理装置1的功能结构的框图。如图1所示,信息处理装置1具备学习部10、推断部20以及存储部30。在存储部30中保存有图像辨识模型θ1。向信息处理装置1输入图像数据。在图1中,作为该图像数据的例子,示出图像数据Im1、Im2。图像数据Im1被输入到学习部10,图像数据Im2被输入到推断部20。
学习部10通过使用包括图像数据Im1的学习数据Ld1的机器学习,将图像辨识模型θ1作为已学习模型。图像数据Im1包括与多个源数据Sd11~Sd1J(J为2以上的自然数)分别对应的多个符号Sy11~Sy1J。源数据Sd1j(j为1以上且J以下的自然数)包括数值数据Nm1j、种类数据Ty1j以及位置数据Ps1j。符号Sy1j的外观由数值数据Nm1j以及种类数据Ty1j决定。图像数据Im1中的符号Sy1j的位置由在源数据Sd1j中与数值数据Nm1j关联的位置数据Ps1j决定。图像数据Im1表现特定空间中的多个数值数据Nm11~Nm1J的分布。此外,与包含于学习数据Ld1的图像数据对应的多个源数据的数量不限定于自然数J。
图像辨识模型θ1从与图像数据Im1同样的、与多个源数据对应的图像数据提取利用该多个源数据附加特征的特定信息。具体而言,图像辨识模型θ1例如包括卷积神经网络(CNN:Convolutional Neural Network)、MLP(Multi-Layer Perceptron,多层感知机)、RNN(Recurrent Neural Network,递归神经网络)、具有注意唤起(Attention)机构的模型、作为注意唤起的应用的ViT(Vision Transformer,视觉转换器)、图神经网络(GNN:GraphNeural Network)或者其应用的图卷积神经网络(GCN:Graph Convolutional NeuralNetwork)等神经网络、梯度提升决策树(GBDT:Gradient Boosting Decision Tree)或者支持向量分类机(SVC:Support Vector Classification)。卷积神经网络例如包括残差网络(ResNet:Residual Network)、VGGNet(Very Deep Convolutional Network,超深卷积网络)或者EfficientNet。
学习部10例如针对图像辨识模型θ1进行如针对CNN、MLP、或者RNN的深度学习或者针对梯度提升决策树的梯度提升法的机器学习算法。但是,学习部10也可以在进行学习处理之前进行读取包含于学习数据Ld1的多个图像数据各自中包含的符号的信息的预处理、提取该符号的轮廓线的预处理或者去除成为差错要因的噪声分量的预处理。学习部10也可以根据预处理的结果,变更学习处理。例如,在图像辨识模型θ1包括CNN的情况下,也可以根据包含于学习数据Ld1的符号的大小,变更CNN的滤波器的大小。关于一般的CNN的滤波器的大小,使用3×3或者5×5等的情况多。但是,在CNN在通道方向上具有M(M是自然数)层的情况下,还使用1×1×M的滤波器。关于滤波器尺寸,如7×7或者9×9等那样,尺寸越大,则能够读取图像内的越广域的信息,但由于滤波器尺寸,计算量按照指数函数变大。因此,一般而言,减小滤波器尺寸,另一方面,增加隐藏层的总数来提取图像内的广域的特征量。包含于图像辨识模型θ1的CNN的滤波器的大小优选与该符号的大小同等或者为其以上的大小的滤波器。但是,在CNN的滤波器变大时,学习处理的计算量急剧增大,所以如果能够设置3层以上的隐藏层(hidden layer),则在图像辨识模型θ1的CNN中也可以使用比该符号的大小小的滤波器。其原因为,随着接近CNN的输出层,通过在各个隐藏层中设置激活函数而产生图像数据模糊这样的效果,其结果,能够实现与CNN的滤波器的尺寸比较大的情况相同的效果。另外,通过使用比较小的滤波器,连图像数据的细节也能够分析,所以如果能够确保计算资源,则优选使用该小的滤波器使CNN多层化。
在学习部10进行的学习处理是监督学习的情况下,与包含于学习数据Ld1的图像数据作为正确答案关联的正确答案数据可以是任意的数据。例如,在作为符号包括由室内空间(特定空间)的温湿度传感器测定的温度以及湿度的图像数据是图像辨识模型θ1的输入数据,该室内空间中的用户的舒适度的指标是图像辨识模型θ1的输出数据的情况下,包含于学习数据Ld1的图像数据与由温湿度传感器测定的数值数据的分布对应。该图像数据包括配置于该温湿度传感器的该室内空间中的位置的符号。与该图像数据关联的正确答案数据是该指标值。这样的图像数据和正确答案数据的组合(教师数据)至少需要100个以上,优选最好准备1万个以上。在包含于学习数据Ld1的图像数据中表现的空间(特定空间)无需为二维空间而也可以是三维以上的空间。但是,在作为学习处理进行半监督学习的情况下,也可以正确答案数据至少比图像数据好。另外,在作为学习处理进行自监督学习等聚类的无监督学习的情况下,也可以仅为图像数据。在半监督学习以及进行聚类的无监督学习各自中,优选准备100个以上的数据。
作为包含于学习数据Ld1的图像数据,例如,也可以是将工厂内的无线设备的配置、接收灵敏度、发送输出作为数值数据在该无线设备的工厂内的位置配置有与该数值数据对应的符号的图像数据。在该情况下,通过图像辨识模型θ1根据该图像数据推断的数据也可以是工厂内的特定位置处的无线环境数据。进而,在作为符号包括与印刷基板上的多个IC(Integrated Circuit,集成电路)或者电路零件各自对应的数值数据的图像数据被输入到图像辨识模型θ1的情况下,也可以将把它们安装到印刷基板时的IC的输出或者作为传送到印刷基板的外部的信号或者在空间传送的信号传输的信号量的目标值作为正确答案数据。
图像数据Im2包括与多个源数据Sd21~Sd2K(K为2以上的自然数)分别对应的多个符号Sy21~Sy2K。源数据Sd2k(k为1以上K以下的自然数)包括数值数据Nm2k、种类数据Ty2k以及位置数据Ps2k。符号Sy2k的外观由源数据Sd2k的数值数据Nm2k以及种类数据Ty2k决定。图像数据Im2中的符号Sy2k的位置由在源数据Sd2k中与数值数据Nm2k关联的位置数据Ps2k决定。图像数据Im2表现特定空间中的多个数值数据Nm21~Nm2K的分布。
推断部20使用已学习的图像辨识模型θ1从图像数据Im2提取利用多个源数据Sd21~Sd2M附加特征的特定信息Ft,输出特定信息Ft。例如,推断部20也可以向信息处理装置1的输入输出部(在图1中未图示)输出特定信息Ft。此外,与输入到推断部20的图像数据对应的多个源数据的数量不限定于自然数K。
图2是示出作为由图1的信息处理装置1处理的图像数据的一个例子的图像数据Im10的图。如图2所示,图像数据Im10包括符号21-1、21-2、21-3、22-1、22-2、29-1、29-2。
符号21-1~21-3各自的外观的形状是菱形。符号21-1~21-3关于外观的大小相互不同。符号21-1~21-3关于外观的色彩或者花纹相同。符号22-1、22-2各自的外观的形状是三角形。符号22-1、22-2关于外观的大小相互不同。符号22-1、22-2关于外观的色彩或者花纹相同。符号21-1、22-1、23-1关于外观的色彩或者花纹相互不同。符号29-1、29-2各自的外观的形状是四边形。符号29-1、29-2关于外观的大小相互不同。符号29-1、29-2关于外观的色彩或者花纹相同。
此外,符号的外观的形状也可以是四边形、菱形以及三角形以外的形状(例如多边形、圆或者椭圆)。另外,关于相似的2个三角形的一方的三角形,也可以相对该三角形的重心使该三角形旋转而成为与另一方的三角形不同的符号。也可以通过改变相似的2个长方形的一方的长方形的长边与短边之比,使该长方形成为与另一方的长方形不同的符号。
符号21-1~21-3、22-1、22-2、29-1、29-2各自表现与配置于N维(N为2以上的自然数)空间的物体关联的数值数据。在图2中,作为一个例子,各符号表现与配置于二维空间的物体(例如安装到印刷基板上的电路零件)关联的数值数据(例如电阻值、线圈的电感值或者电容器的电容值)。包含于输入到图1的信息处理装置1的图像数据的符号例如也可以表示与配置于三维以上的空间的物体(配置于空调空间的温度传感器或者湿度传感器)关联的数值数据。
图3是示出配置有空调机Ac以及多个温度传感器Stm的作为三维空间的空调空间Rm的图。例如,在空调空间Rm的顶棚Ce的中央和顶棚Ce的角落分别配置有不同的2个温度传感器Stm的情况下,与由配置于顶棚Ce的中央的温度传感器Stm测定的温度(数值数据)对应的符号以及与由配置于顶棚Ce的角落的温度传感器Stm测定的温度(数值数据)对应的符号在空调空间Rm的图像数据中分别配置于顶棚Ce的中央的位置和顶棚Ce的角落的位置。此外,关于通过输入到图1的信息处理装置1的图像数据表现的空间,只要定义该空间内的坐标则可以是任意的空间,例如,也可以是网络空间或者CAD(Computer-Aided Design,计算机辅助设计)上的虚拟设计空间等不具有物理上的空间的二维以上的多维的虚拟空间。另外,无需一定在空调空间Rm配置物理性的温度传感器Stm,而也可以在空调空间Rm配置红外线传感器或者红外线摄像机等非接触地测定远程的物体的状态的设备。进而,也可以通过组合该设备和多普勒激光雷达等探测进深方向的气流的流动的装置,得到与温度传感器Stm同等的信息。
通过符号表现的数值数据的种类通过组合了该符号具有的花纹、形状、颜色或者点(dot)等的该符号的外观表现。符号具有的花纹例如被表现为组合了层次、圆或者点等的图案。符号具有的形状例如被表现为圆、椭圆或者多边形。符号具有的颜色例如通过作为3个原色的红、绿以及蓝以及将它们组合的颜色表(RGB颜色模型)表现。
包含于输入到信息处理装置1的图像数据的符号也可以是组合了多个点的符号。组合了多个点的符号的外观例如具有格子状或者将长方形以预先决定的条件分割而成的形状。该符号具有多个区域,在该多个区域各自插入了上述颜色或者花纹。
图2所示的多个符号关于外观相互不同。因此,在信息处理装置1中的学习处理以及推断处理中,图像辨识模型θ1易于区分某个符号和其他符号。除了图2所示的符号的表现方式以外,还能够组合用颜色或者点的表现。关于符号,只要是上述表现方式的组合,则可以以任意的方式表现。
以下,使用图4、图5、图6,作为输入到图1所示的信息处理装置1的图像数据的进一步的具体例,说明该图像数据表现与安装到印刷基板的电路零件关联的数值数据的分布的情况。
图4是示出作为在印刷基板上构成的电路的一个例子的降压斩波电路9的电路结构的图。在图4中,X轴以及Y轴相互正交。如图4所示,降压斩波电路9包括印刷基板90、包括MOSFET(Metal-Oxide-Semiconductor Field Effect Transistor,金属氧化物半导体场效应晶体管)的功率半导体91、二极管92、电感器93以及电容器94。功率半导体91、二极管92、电感器93以及电容器94各自是安装于印刷基板90上的电路零件。功率半导体91包括源极(S)、漏极(D)以及栅极(G)。功率半导体91的源极(S)与二极管92的阴极以及电感器93的一端连接。电感器93的另一端与电容器94的一方电极连接。二极管92的阳极与电容器94的另一方电极连接。功率半导体91的漏极(D)以及二极管92的阳极与未图示的电源连接。电感器93的另一端以及电容器94的另一方电极与未图示的负载或者不同的电源电路连接。对功率半导体91、二极管92、电感器93以及电容器94各自关联有在印刷基板90上定义的二维平面的坐标。功率半导体91、二极管92、电感器93以及电容器94各自的坐标例如是该电路零件在印刷基板90上所占的区域的重心的坐标或者包含于该区域的任意的点的坐标。功率半导体91、二极管92、电感器93以及电容器94各自的数值数据、种类以及坐标(位置信息)与图1所示的1个源数据对应。
图5是示出作为与图4的降压斩波电路9对应的图像数据的一个例子的图像数据Im20的图。如图5所示,图像数据Im20包括符号23、24、25、26。符号23~26与功率半导体91的数值数据、二极管92的数值数据、电感器93的数值数据以及电容器94的数值数据分别对应。图像数据Im20与图2的图像数据Im10不同,还包括将符号之间连接的布线27-1、27-2、27-3、27-4。布线27-1连接符号23和符号25。布线27-2连接符号23和24。布线27-3连接符号25和26。布线27-4连接符号24和26。作为与图像数据Im20对应的正确答案数据,例如,可以举出从降压斩波电路9得到的输出信号的波形或者振幅等该输出信号的物理特性、与电磁兼容性(EMC:Electromagnetic Compatibility)有关的从印刷基板90的电磁噪声输出、该电磁噪声的频率特性、从降压斩波电路9的外部混入印刷基板90的电磁噪声的输入电压或者包含该电磁噪声的频率特性的EMC特性。
在安装到印刷基板90的电路零件的种类成为10种以上的情况下,不仅是符号的形状而且电路零件的种类也有可能难以区分。一般而言,关于安装到印刷基板的电路零件的种类,通过组合使用无源零件和有源零件,可能成为100种以上。在这样的情况下,能够通过多个点的组合表现与设想大量的种类的电路零件的数值数据对应的符号。例如,在符号是3×3的多个点、且多个点各自表现2值信息(1比特)的情况下,使该符号的朝向成为恒定,该符号能够表现516(=29)个种类。在符号是4×4的多个点的情况下,使该符号的朝向成为恒定,即能够表现65536(=216)个种类。作为多个点的组合的符号的外观的形状无需为正方形,例如也可以是梯形或者长方形等任意的形状。关于该形状,只要是在封闭的区域中描绘的多个点的组合,则可以是任意的形状。1个点无需为1个像素而也可以是多个像素的组合。也可以多个点包括颜色相互不同的至少2个点。无需通过符号表现和与符号对应的物体有关的所有信息。对该符号关联标识符(ID:identification)并将该标识符记载到符号即可。而且,各点无需为白点以及黑点的任意点,而也可以具有灰色或者灰色以外的颜色。但是,在使用黑白以外的颜色的情况下,增加CNN的层数,所以关于仅通过黑白的对比度能够表现的点,优选不使用黑白和其中间颜色以外的颜色。通过这样针对各点也附加信息,能够增加相同的尺寸的符号具有的信息量,所以能够在特定的物体的位置以精准定位配置符号。
图6是示出作为与图4的降压斩波电路9对应的图像数据的其他例子的图像数据Im20A的图。如图6所示,图像数据Im20A包括符号23A、24A、25A、26A。符号23A~26A与功率半导体91的数值数据、二极管92的数值数据、电感器93的数值数据以及电容器94的数值数据分别对应。符号23A~26A各自包括3×3的点。在符号23A~26A中,分别记载了标识符ID01~ID04。如以下的表1所示,对标识符ID01~ID04各自预先关联有零件的种类以及零件特性等。
[表1]
表1
在上述中,重点地说明了在使用电磁学的设计中使用的数值数据,但输入到图1的信息处理装置1的图像数据也可以包括流体设计、热设计或者应力设计等与和电磁学不同的物理现象有关的数值数据。另外,该图像数据也可以包括与组合了电磁学和热力学的多个物理现象有关的数值数据。例如,也可以作为正确答案数据,将电磁学的电信号的时间变化的结果和热力学的温度上升的时间变化的结果与图像数据关联。在作为学习处理使用深度学习的情况下,向CNN的输入层输入相同的图像数据,在隐藏层中使数据传播分支,根据分类问题或者回归问题选择softmax函数等适当的逻辑函数,从而能够实现与相互不同的多个物理量对应的图像辨识模型θ1的输出。进而,与符号对应的数值数据也可以是与物理现象无关的数据。不同的2个数值数据相互依赖,该2个数值数据也可以无正交关系。
作为与符号对应的数值数据的种类,例如,可以举出由温度传感器测定的温度、由湿度传感器测定的湿度、电容器的电容值或者线圈的电感。关于与包含于某个图像数据的多个符号分别对应的多个数值数据,如电容器的电容值以及线圈的电感那样在电路零件这样的观点无需为相同的种类,只要是能够定义特定空间中的位置信息的数值数据,则可以是任意的数值数据。另外,即使是相同的电容器,也可以通过针对多层陶瓷电容器、薄膜电容器以及铝电解电容器等对应不同的多个符号,来识别不同的种类的电容器。进而,即使是相同的线圈,也可以通过针对常模扼流线圈、共模扼流线圈、混合扼流线圈以及变压器等分别对应不同的多个符号,来识别不同的种类的线圈。
数值数据的大小(振幅)表示与相同的种类的物体(例如传感器)关联的数值数据的相对的大小。该相对的大小例如通过包括符号自身的大小、构成符号的颜色、该相对的大小的信息的多个点的组合图像表现。在符号的颜色中,例如,也可以除了利用RGB颜色模型指定颜色以外,还指定透明度。例如,在由该传感器测定的数值数据在与相同的种类的其他传感器的关系中相对地小的情况下,也可以将与该数值数据对应的符号的透明度设定得高(薄),在相对大的情况下也可以将透明度设定得相对低(浓)。
符号的大小是指在图像数据内表现的符号的大小,例如,在由某个传感器测定的数值数据在与相同的种类的其他传感器的关系中相对小的情况下,与该数值数据对应的符号被表现得相对小,在相对大的情况下,该符号被表现得相对大。
与数值数据对应的符号和与其他数值数据对应的符号的关系中的相对的透明度的比或者大小的比无需与数值数据和其他数值数据的比成比例或者反比例。该相对的透明度的比或者大小的比例如也可以是与向对数、指数或者周期函数等任意的组合的函数输入数值数据和其他数值数据的比而得到的值成比例的值。例如,作为该函数,能够使用底为10的常用对数函数。
某个电容器的1u(10-6)F的电容值和其他电容器的1p(10-12)F的电容值的比是106倍(=10-6/10-12)。在图像数据中用3个像素的符号表现1pF的数值数据,以与2个数值数据的比成比例的方式设定数值数据的符号的大小的情况下,1uF的数值数据的符号的表现所需的像素数成为3×106个,所以现实上不可能将该符号包含到图像数据。另一方面,将该比输入到常用对数函数而得到的值成为6倍。通过使用常用对数函数,在图像数据中用3个像素表现1pF的情况下,能够在该图像数据中用18(=3×6)个像素表现1uF。因此,能够在相同的印刷基板的图像数据中,包括与1pF对应的符号以及与1uF对应的符号这双方。进而,在组合了多个点的符号中,能够通过多个点表现符号的大小。另外,也可以将通过多个点的组合表现的符号和标识符关联,通过和与2个符号分别关联的2个ID的比较表现相对的大小。但是,在这样使用对数的情况下,难以找到精度高的设计值的情形多。例如,9pF和10pF的差几乎消失,根据情况存在还难以识别10pF和100pF的可能性。但是,只要能够计算估计值,则能够将接近其解的估计值作为初始值求解最佳化问题。如果初始值接近解,则能够通过一般的最佳化手法(例如最速下降法或者牛顿法等),在短时间内求解最佳化问题。
关于包括1个以上的符号的图像数据,优选排除变化的符号的形状或者位置信息,在进行学习处理的定时和进行推断处理的定时相同或者在推断处理的定时可能产生的变化量在学习处理中作为图像数据的变化量被输入到学习部10。因此,包含于学习数据Ld1的图像数据优选为静止图像数据。另外,即使是如动画数据那样图像随着时间经过而变化的图像数据,关于针对优选在信息处理装置1中实现的期望的特性无影响的图像数据,优选在学习处理的预处理中从图像数据中去除不需要的部位或者使用设想了图像数据的变化量的学习数据来进行学习处理。将如上所述将具有数值信息或者ID信息的符号嵌入图像数据内的手法定义为数值图像嵌入(Numerical Symbol Embedding)。
另外,作为数值图像嵌入的一个例子,即使在如在印刷基板的两面安装零件的印刷基板那样多个图像数据相互关联的情况下,通过将该多个图像数据一体地输入到信息处理装置1,在层之间的方向(通道方向)上对各层的图像数据进行卷积,能够学习以及推断多个图像数据之间的符号之间的关系。此外,既可以进行层的方向(空间方向)和层之间的方向被同时卷积的处理,也可以如MobileNet那样依次进行仅在空间方向上卷积的处理(Depthwise Convolution)和仅在通道方向上卷积的处理(Pointwise Convolution)。例如,根据信息处理装置1,能够从多个图像数据提取通过安装到印刷基板的表面的零件与安装到背面的零件之间的磁耦合或者电场耦合这样的空间耦合的分量附加特征的信息。
在图像数据内的与数值数据关联的物体(对象)的物理性的尺寸比较大且该物体占据在图像数据中表现的空间的大半的情况下,图像数据内的与该数值数据对应的符号也可以配置于上述对象的中央并且唯一地决定的特定位置。例如,在如配置于印刷基板上的电力变换用的电抗器那样占据印刷基板的大致一半的面积的情况下,也可以在与该印刷基板对应的图像数据中,在电抗器内的特定位置配置与该电抗器的数值数据对应的符号。
另一方面,在该对象的物理性的尺寸比较小的情况下,与该对象的数值数据对应的符号的中心也可以配置于上述对象的中央或者预先决定的特定位置。例如,在该对象是线圈的情况下,与该线圈对应的数值数据也可以配置于该线圈的重心等。通过这样对图像数据嵌入数值数据,能够构筑也能够考虑线圈之间的磁耦合或者杂散电容等用等价电路难以表现的物理特性的信息处理装置。
另外,在对1个位置关联多个数值数据的情况下,也可以准备与该多个数值数据各个对应的多个图像数据,在该多个图像数据的相同的位置配置与多个数值数据分别对应的多个符号。例如,在作为数值图像嵌入的其他一个例子为温度传感器和湿度传感器成为一体的温湿度传感器的情况下,也可以将与由温湿度传感器测定的温度(数值数据)对应的符号配置到配置有该温湿度传感器的某个图像数据的位置,将与由温湿度传感器测定的湿度(数值数据)对应的符号配置到配置有该温湿度传感器的其他图像数据的位置。但是,在与1个位置关联的多个数值数据比较不多的情况下,也可以对1张图像数据排列配置多个符号。例如,与由温湿度传感器测定的温度以及湿度分别对应的2个符号也可以不使相互的相对位置变化而相邻地配置。
关于符号的种类,除了菱形、圆、梯形以及多边形等形状以及阴影(图案)的朝向等图案以外,也可以通过利用RGB颜色模型提供的颜色的组合表现。进而,关于符号的外观的形状,也可以在该符号的位置相对中心或者重心使该符号旋转,将旋转后的符号与旋转前的符号区分。
但是,能够通过上述组合表现的符号的数量存在限制。在符号的种类以及数量比较少的情况下,包含于多个源数据的特征被充分反映到图像数据,所以能够通过已学习的图像辨识模型θ1高精度地辨识包含于该源数据的特征。但是,在包含于图像数据的多个符号的数量增加时,多个符号的外观的差异变得比较小,多个符号的分类可能变得困难。例如,在生成与相互不同的20个传感器或者电路零件有关的图像数据的情况下,能够使用的符号数受限,从而在使用如5边形的符号以及6边形的符号那样外观相互类似的2个符号时,该2个符号之间的外观的差异变小。在这样的情况下,优选针对1个数值数据并用该符号和组合了多个点的符号或者组合多个点来构成与1个数值数据对应的符号。另外,由多个点的组合构成的符号的形状无需为四边形,该形状也可以是多边形或者椭圆等任意的形状。另外,符号的背景颜色无需为白,只要是单色则可以是任意的颜色。
与符号对应的数值数据的大小能够通过该符号的尺寸、该符号的颜色的浓淡以及它们的组合表现。另外,如上所述,通过多个点的组合也能够表现与符号对应的数值数据的大小。关于符号的尺寸,只要是使用反对数、对数或者某1个函数来计算的值,则可以是任意的值。另外,关于符号的颜色的浓淡,也与符号的大小相同。符号的颜色的浓淡既可以用灰阶表现,也可以在彩色的图像数据中改变RGB的比来表现。在通过RGB表现符号的颜色的浓淡、并且图像辨识模型θ1包括卷积神经网络的情况下,将图像数据在CNN的输入的通道方向上分割为3个,在输入层的后级进行每个通道的卷积运算,从而能够与灰阶中的浓淡同样地表现每个通道的浓淡。进而,既可以通过利用多个点的组合表现符号的种类,利用该符号的尺寸表现该符号的大小,也可以用形状表现符号的种类,用多个点的组合表现该符号的大小,还可以用多个点的组合表现符号的种类和形状。但是,在将上述两面的印刷基板作为输入的情况或者将多个传感器数据在同一位置配置多个并将由此得到的信息(在通道方向上分开)输入到不同的层的情况下,在与RGB相同的通道方向上增加信息,所以存在无法使图像辨识模型θ1正确地学习的可能性。因此,例如,在两面的印刷基板中使用RGB的颜色信息的情况下,优选用R、G、以及B各自表现两面的印刷基板或者不使用颜色信息而用符号的种类、形状或者点的组合等表现两面的印刷基板。
在以往的信息处理装置中,在如上所述处理在空间上的位置或者朝向有意义的数值数据的情况下,需要将位置坐标放入数值数据或者处理数值数据的信息处理装置、处理图像的其他信息处理装置以及结合该2个信息处理装置的其他信息处理装置。但是,难以使这些3个信息处理装置各自个别地学习。另一方面,在实施方式1中,通过在图像数据中在与数值数据关联的物体的空间上的绝对位置或者相对位置配置与该数值数据对应的符号,能够在该图像数据中包含如坐标那样的位置信息和数值数据。根据实施方式1所涉及的信息处理装置,能够将具有数值数据(例如物性值)以及与该数值数据关联的物体的位置信息这样的复合的信息的图像数据输入到1个信息处理装置。根据实施方式1,无需组合多个信息处理装置,所以能够利用1个信息处理装置简易地执行使用多个图像数据的机器学习。
图像数据无需仅由符号构成,而也可以包括符号以外的信息。例如,也可以针对用摄像机拍摄室内环境而得到的该室内环境的图像数据,将传感器机器具有的数据作为符号配置到该图像数据。或者,在图像数据与印刷基板对应的情况下,也可以将安装到印刷基板的IC或者无源电路等各个电路零件作为符号配置到该图像数据,并且将连接多个符号之间的布线配置到图像数据内。
图7是示出图1的信息处理装置1的硬件结构的框图。如图7所示,信息处理装置1包括处理电路51、存储器52(存储部)、存储设备53(存储部)以及输入输出部54。处理电路51包括执行储存于存储器52的程序的CPU(Central Processing Unit,中央处理单元)。处理电路51也可以包括GPU(Graphics Processing Unit,图形处理单元)。信息处理装置1的功能通过软件、固件或者软件和固件的组合实现。软件或者固件被记述为程序,储存到存储设备53。处理电路51将存储于存储设备53的程序在存储器52中展开并执行该程序。此外,CPU还被称为中央处理装置、处理装置、运算装置、微型处理器、微型计算机、处理器或者DSP(Digital Signal Processor,数字信号处理器)。
存储器52是易失性的存储装置,例如包括DRAM(Dynamic Random Access Memory,动态随机存取存储器)、和/或SRAM(Static Random Access Memory,静态随机存取存储器)。存储设备53是非易失性的存储装置,例如包括闪存存储器(SSD(Solid State Drive,固态硬盘))、HDD(Hard Disk Drive,硬盘驱动器)、ROM(Read Only Memory,只读存储器)、EPROM(Erasable Programmable Read Only Memory,可擦除可编程只读存储器)、EEPROM(electrically erasable programmable read only memory,电可擦可编程只读存储器))、磁盘、软盘、光盘、紧凑盘、迷你盘和/或DVD(Digital Versatile Disc,数字多功能光盘)。
在存储设备53中,保存有图像辨识模型θ1、机器学习程序Pg1、以及图像辨识程序Pg2。机器学习程序Pg1是用于针对图像辨识模型θ1进行机器学习的程序。图像辨识程序Pg2是用于使用图像辨识模型θ1根据图像数据推断特定信息的程序。在机器学习程序Pg1以及图像辨识程序Pg2中,参照图像辨识模型θ1。执行机器学习程序Pg1的处理电路51作为图1的学习部10发挥功能。执行图像辨识程序Pg2的处理电路51作为图1的推断部20发挥功能。
输入输出部54接受来自用户的操作,并且将处理结果输出给用户。输入输出部54例如包括鼠标、键盘、触摸面板、显示器以及扬声器。
实施方式1的变形例1.
在实施方式1中,说明了具备学习部以及推断部这双方的信息处理装置。在实施方式1的变形例1中,说明不具备学习部的信息处理装置。图8是示出实施方式1的变形例1所涉及的信息处理装置1A的功能结构的框图。信息处理装置1A的结构是从图1的信息处理装置1去掉学习部10的结构。其以外的信息处理装置1A的结构与图1的信息处理装置1的结构相同,所以不反复关于该结构的说明。
如图8所示,在存储部30中存储有已学习的图像辨识模型θ1。图像辨识模型θ1通过利用与信息处理装置1A不同的学习装置进行的机器学习成为已学习模型。
图9是示出图8的信息处理装置1A的硬件结构的框图。信息处理装置1A的硬件结构是从图7的存储设备53去掉机器学习程序Pg1的硬件结构。其以外的信息处理装置1A的硬件结构与信息处理装置1的硬件结构相同,所以不反复关于该结构的说明。
实施方式1的变形例2.
在实施方式1的变形例2中,说明不具备推断部的信息处理装置。图10是示出实施方式1的变形例2所涉及的信息处理装置1B的功能结构的框图。信息处理装置1A的结构是从图1的信息处理装置1去掉推断部20的结构。其以外的信息处理装置1B的结构与图1的信息处理装置1的结构相同,所以不反复关于该结构的说明。
图11是示出图10的信息处理装置1B的硬件结构的框图。信息处理装置1B的硬件结构是从图7的存储设备53去掉图像辨识程序Pg2的硬件结构。其以外的信息处理装置1B的硬件结构与信息处理装置1的硬件结构相同,所以不反复关于该结构的说明。
以上,根据实施方式1以及变形例1、2所涉及的信息处理装置,能够利用进行处理的信息处理装置简易地实现将数值数据和位置信息的关联性反映到针对图像数据的该处理。
实施方式2.
在实施方式2中,说明将包含于数值数据的多个参数之间的关系变换为散布图,根据该散布图(图像数据)的形状推断多个参数之间的关系式(特定信息)的结构。图12是示出实施方式2所涉及的信息处理装置2的功能结构的框图。信息处理装置2的功能结构是对图1的信息处理装置1追加了图生成部40的功能结构。其以外的功能结构与信息处理装置1相同,所以不反复与该功能结构有关的说明。
如图12所示,学习数据Ld2包括数值数据组Sn1。数值数据组Sn1包括多个数值数据Np11~Np1J。数值数据Np1j包括多个参数x1_j~xp_j(p为2以上的自然数)。多个参数x1_j~xp_j包括说明变量以及目标变量。
图生成部40接受数值数据组Sn1,生成包括散布图Sp11(图像数据)的散布图组Ss1,将散布图组Ss1输出给学习部10。散布图Sp11包括多个符号Pt11~Pt1J。多个符号Pt11~Pt1J与数值数据Np11~Np1J分别对应,并且与在散布图Sp11中描绘的多个点分别对应。
图生成部40接受数值数据组Sn2,生成包括散布图Sp21(图像数据)的散布图组Ss2,将散布图组Ss2输出给推断部20。数值数据组Sn2包括多个数值数据Np21~Np2K。数值数据Np2k包括多个参数x1_k~xp_k。散布图Sp21包括多个符号Pt21~Pt2K。多个符号Pt21~Pt2K与数值数据Np21~Np2K分别对应,并且与在散布图Sp21中描绘的多个点分别对应。
图13是示出图12的信息处理装置2的硬件结构的框图。信息处理装置2的硬件结构是对图7所示的存储设备53追加了图生成程序Pg3的结构。其以外的信息处理装置2的硬件结构与信息处理装置1相同,所以不反复说明。如图13所示,图生成程序Pg3是用于接受数值数据组来生成散布图组的程序。执行图生成程序Pg3的处理电路51作为图12的图生成部40发挥功能。
图14是示出图12的数值数据组Sn1的一个例子的图。在图14中,示出图12的自然数p为3的情况。如图14所示,包含于数值数据组Sn1的多个数值数据Np11~Np1J各自包括作为说明变量的参数x1、x2和作为目标变量的目标值y。此外,在图14中,将图12的参数xp(x3)表现为目标值y。
图15是示出某个参数x1和目标值y的对应关系的散布图Sp11。如图15所示,散布图Sp11具有与参数x1、x2分别对应的2个坐标轴。图16是示出其他参数x2和目标值y的对应关系的散布图Sp12。如图16所示,散布图Sp12具有与参数x2、y分别对应的2个坐标轴。图17是示出2个参数x1、x2的对应关系的散布图Sp13。如图17所示,散布图Sp13具有与参数x1、x2分别对应的2个坐标轴。
在实施方式2中,包含于数值数据的参数为散布图中的坐标,所以该数值数据还兼作位置信息。此外,散布图的维数不限定于2,也可以是3以上。例如,也可以通过将参数x1设为x轴,将参数x2设为y轴,将目标值y设为z轴,形成三维的散布图。另外,散布图的各点无需为圆,可以以任意的大小设置任意的形状。但是,在某个点和其他点相互重叠一半以上时,一方的点的信息丧失,所以点的尺寸优选为与其他点不重叠一半以上的尺寸以下的大小。
根据数值数据形成的图像数据不限定于散布图,例如,也可以是如图18所示的等高线Cnt或者如图19所示的直方图Hst。但是,图像数据的形式可以是任意的形式,但优选针对该图像数据的学习处理以及推断处理为由相同的算法的图生成部生成的图像数据。
散布图的轴的范围优选为包括包含于数值数据的多个参数各自的最大值和最小值的范围,在向信息处理装置输入图像数据的情况下优选在该图像数据中不记载轴的值(刻度)。在数值数据数比较少(例如为100点以下)的情况下,根据多个数值数据形成的图像数据优选为等高线。也可以通过针对多个数值数据的插值使在图像数据中被表现为图的数据变得连续,通过该插值在数值数据的数量(点数)少的情况下也能够掌握多个数值数据的倾向。也可以通过如生成对抗网络(GAN:Generative Adversarial Network)的生成模型,生成新的数值数据。如等高线或者直方图那样,无需使密度浓的区域或者振幅大的区域的颜色的浓淡变浓,使密度淡的区域或者振幅小的区域的颜色的浓淡变淡,这些区域也可以表现为相同的高度或者相同的大小的区域。但是,在能够增加数值数据的情况下优选增加,更期望以使分布变得均匀(均匀分布)的方式增加数值数据。
接下来,说明从根据多个数值数据形成的散布图提取相互平行的成为该散布图的最大值以及最小值的包络线、近似直线或者近似曲线。从散布图提取包络线、近似直线或者近似曲线的方法可以是任意的方法,例如,包括通过希尔伯特变换、与事先准备的关系式已知的散布图的循环算法、使用用二分类判定它们是否为平行线的事先已学习的卷积神经网络的图像处理或者计算使图像水平移动后的一致度的图像处理等提取平行分量。
图20是根据多个数值数据形成的散布图以及将该散布图的作为成为最大值的包络线的直线C1(第1包络线)和作为成为最小值的包络线的直线C2(第2包络线)一并示出的图。分布于散布图的多个点分布于第1包络线与第2包络线之间。表示第1包络线和第2包络线的特定参数的特定轴(在图21中目标变量y的坐标轴)方向的间隔在当间包括该多个点的平行的2个曲线中最短。为了简化说明,在图20中,设为包络线C1、C2是表示目标变量的1次函数,且相互平行。如图20所示,求出包络线C1、C2的斜率设为a1。表示包络线C1、C2各自的1次函数是表示目标变量y的关系式。该关系式包括与参数x1有关的项a1×x1。通过求出斜率a1,可知在构成图20所示的散布图的参数与目标变量之间有和或者差的关系。此外,表示目标变量的多项式中的斜率是指次数最高的参数的项的系数。
图21是根据多个数值数据形成的散布图以及将该散布图的作为成为最大值的包络线(第1包络线)的抛物线C11和作为成为最小值的包络线(第2包络线)的抛物线C12一并示出的图。在图21中,作为将散布图的包络线表示为多项式的情况的一个例子,示出该多项式为2次的凸函数的情况。如图21所示可知,通过包络线C11、C12成为平行,在形成散布图的2个参数之间有和或者差的关系。包络线C11、C12的斜率是系数a2。
例如,在图20中可知,在将f(·)设为某个函数的情况下,在目标值y(第1参数)、参数x1(第2参数)以及参数x2(第3参数)之间有y=a1×x1+f(x2)的关系。在此,通过将目标变量y与和参数x1有关的项a1×x1的差(y-a1×x1)作为新的参数x3(第4参数),求出参数x3与x2之间的关系式(x3=f(x2)),能够推测函数f(·)。多个数值数据仅由正的值构成或者仅由负的值构成的情形多,所以通过求出y-a1×x1的对数或者求出f(x2)的对数,能够提取散布图中的和以及差的分量。在将目标值y的最小值设为b时,通过将y-a1×x1置换为y-a1×x1-b,能够求出y-a1×x1-b的对数。也可以变更包含于多个数值数据的参数的平均值或者方差值或者进行使得该参数的最小值大于0的标准化或者规格化。
但是,在函数f如f(x2)=a2×x2+d2(a2、d2为常数)那样表现的情况下,无需一定进行求出对数的处理。另外,在如参数y和x1的关系被表现为y=a1×x1+b1(b1为常数)的情况那样无法从散布图提取平行分量的情况下,通过针对各参数取对数,能够生成期望的公式。进而,在说明变量x1和x2平行的情况下,通过如x2=a3×x1+d3(a3、d3为常数)那样根据视为平行的分量生成公式并根据各分量求解联立方程式,能够制作期望的公式。
例如,如果在说明变量x1、x2的散布图中无相关,则参数y、x1、x2的关系被表现为y=f(x1)+f(x2),所以通过分别提取y=f(x1)的分量和y=f(x2)的分量,能够导出目标变量y的公式。另外,在参数y、x1、x2的关系被表现为y=f(x1、x2)的情况下,如果如上所述根据说明变量x1、x2的散布图将说明变量x1、x2的关系表现为x2=a3×x1+d3,则通过根据联立方程式的解法将该式的分量代入说明变量x1,能够使用某个函数g将参数y、x1的关系表现为y=g(x1)。其结果,通过在该条件下进行提取平行或者计算两边对数等处理,能够导出期望的公式。
图22是示出由图12的推断部20进行的处理的一个例子的流程图。以下,将步骤简记为S。如图22所示,推断部20在S201中,从表示第1参数和第2参数的关系的第1散布图提取平行的第1包络线以及第2包络线,使处理进入到S202。推断部20在S202中,从第1包络线以及第2包络线的斜率导出表示第1参数的、第1参数和第2参数的第1关系式,使处理进入到S203。推断部20在S203中,计算作为第1参数和在S202中计算的关系式中包含的与第2参数有关的项的差的第4参数,使处理进入到S204。推断部20在S204中,根据从针对在S203中计算的第4参数的特定运算取得的值的对数,生成表示第3参数和第4参数的关系的新的散布图(第2散布图),使处理进入到S205。在S203中进行的特定运算包括第4参数的绝对值的对数的导出过程中的四则运算。推断部20在S205中,从在S204中生成的第2散布图导出第3参数和第4参数的第2关系式,结束处理。
在从散布图导出平行的包络线的过程中,采用使用人工智能(已学习的模型)的信息处理装置的情况下,通过使用与平行和非平行的二分类问题对应的模型,能够从散布图高精度地仅提取平行的分量。另外,即便是由于包含非平行的分量而不易分析的散布图,也可以通过使用与事先学习的多值分类问题对应的图像处理用的模型,计算多个参数的关系式。另外,也可以在通过将加法或者减法分量分离而减少包含于数值数据的参数之后,通过使散布图进行机器学习而得到的已学习模型、包括高斯过程的贝叶斯最佳化或者使用遗传算法等的手法导出多个参数的关系式,计算用于将所有包络线的导出结果合计来用参数表现目标变量的公式。在该多值分类问题中,通过如上所述求出对数,指数函数、乘法分量、加法分量全部成为和与差的1次函数。因此,能够大幅减少分类的数量。其结果,能够提高分类精度。例如,关于y∝(x1)2和y∝(x1)2.5,需要处理为单独的分类问题。该关系式的指数成为模拟值,所以需要细致地分类的学习。另一方面,通过求出该关系式的对数,能够将该关系式表现为log(y)∝log(x1),所以能够仅仅通过1个式表现参数y、x1的关系。由此,能够减少分类的数量,所以不仅能够减少在学习时使用的数据,而且还能够提高分类精度。
相比于仅通过数值数据提取多个参数的关系式的以往的方法,通过从数值数据的散布图导出该关系式,能够在比循环或者使用所有数据的遗传算法等手法短的时间高精度地导出多个参数的关系式。在分析多个数值数据各自时,随着数值数据的数量变多而参数之间的关系性变多,所以计算量按照指数函数增大。另一方面,如果是散布图等图像数据,则能够与数值数据的数量无关地,通过针对该图像数据的图像处理的计算来算出解。另外,散布图、等高线或者直方图的制作所需的计算量比较小,该制作所需的处理也能够并行化。因此,例如,多个参数各自为1亿点以上的大数据不会变成限制该大数据的处理的计算量的条件。进而,根据从数值数据的散布图导出该关系式的方法,与每当计算时不依据前提知识而开始计算的遗传算法等不同,在平行或者非平行的判定处理、平行或者非平行的提取处理等中使用CNN等神经网络的情况下,也能够再利用已学习模型(前提知识)。因此,在该方法中预测公式时仅推断即可,所以能够高速地导出关系式。
但是,在本实施方式中导出的公式是估计值(第一次近似),难以包含常数以严密的值计算,所以进而也可以在根据散布图计算多个参数的关系式或者该关系式的多个候补之后,以该关系式为初始条件,用最速下降法或者牛顿法等最佳化手法对该关系式的常数项进行拟合,计算拟合精度最高的常数项而作为该关系式的解。一般而言,在这样使用牛顿法时,有时解落入极小值或者由于过学习无法通过已学习的模型表现未知的数据,但在该关系式仅包括固定的常数的情况下,能够实现解难以落入极小值并且难以过学习的处理。例如,在根据得到的测定值计算等价电路的情况下,如果已知构成等价电路的零件的组合以及构成等价电路的零件的各参数的估计值,则易于通过拟合计算严密的参数。因此,本实施方式记载的方法提供零件的组合以及零件的各参数的估计值。
在使用一般的数值数据的情况下,即使连接每个参数的最大值或者最小值也不成为完全的平行的情况多。虽然还基于能够浪费的计算时间或者计算资源,但也可以将大致斜率的±10%以内视为平行。但是,也可以在计算资源有富余的情况下,将斜率的±1%以内视为平行,在计算资源无富余的情况下,将斜率的±20%以内视为平行。越严格地判定为平行,则多个参数的关系式的精度变得越高,但必要的计算资源变得越多。但是,根据实施方式2,即使在计算资源无富余的情况下,也能够容易地得到多个参数的关系式的大致的近似式。另外,包络线无需一定为直线,也可以是多项式、三角函数或者它们的组合。在最大值的包络线以及最小值的多个参数的关系式相互平行的情况下,也可以根据散布图计算上述多项式近似的系数或者三角函数的周期性。
通过从参数之间的关系分离加法分量或者减法分量来求出目标值(目标变量)或者参数(说明变量)的对数,能够将乘法分量、指数分量或者对数分量作为加法或者减法计算。由此,能够通过与将加法或者减法分离的算法相同的算法,利用散布图进一步分析参数之间,导出多个参数的关系式。另外,在即使求出对数但2个包络线也没有成为平行的情况下,认为加法或者减法分量仍留在参数之间的关系,所以能够在包络线的导出的过程中校正计算的错误。
在不使用对数的情况下,组合四则运算、指数、对数或者三角函数等复杂的运算,所以需要在处理散布图的信息处理装置中事先预测膨大的数量的组合结果或者制作比较图。另一方面,通过平行分量掌握大致的倾向,并通过信息处理装置仅分析仅通过平行分量无法表现的分量,而导出多个参数的关系式,从而能够与运算的组合的数量减少的量对应地比以往更高速并且高精度地导出必要的关系式。特别是,在被称为符号回归(SymbolicRegression)的技术领域中,从数据导出公式的问题作为NP(Non-deterministicPolynomial,非确定多项式)难题已知,以往仅通过数据之间的比较运算处理难以用现实的计算机和计算时间导出正确答案。相对于此,根据实施方式2,通过经由散布图、等高线或者直方图等图像,能够省略比较运算。特别是,将使用散布图的情况定义为散布符号回归(Scattering Symbolic Regression),将使用等高线或者直方图等图像的情况定义为图像符号回归(Image Symbolic Regression)。进而,通过散布符号回归或者图像符号回归中的对数处理对数据的关系性进行分解处理,所以根据实施方式2,即便是上述NP难题,也能够与数据数无关地导出关系式。但是,在求出对数的处理中对数的自变量(反对数)被限定为比0大的实数,所以关于0或者负的数,通过标准化或者平均化等缩放处理变换为比0大的实数。另外,包含于数值数据的参数也可以是范数非0的复数。在该范数成为0的情况下,能够通过将如计算机ε那样的微小量加到该范数设为对数的自变量。
在上述中说明了将数值数据变换为散布图,但也可以通过对在实施方式1中说明的包括符号的图像数据进行平滑化而变换为数值数据,用实施方式2的方法处理该数值数据,导出多个参数的关系式。在该情况下,在设为将M×N像素(M、N是正的整数)的图像数据准备1000张时,通过对多个图像数据各个进行平滑化,能够制作1000行并且M×N列的数值数据。通过使用这些数值数据,能够根据1000件数值数据,将表示列之间的参数的关系的散布图、各列的参数和正确答案标签的散布图制作(M×N+1)张。
另外,在图像数据的情况下,在使包含于该图像数据的多个像素各自直接成为散布图时,与包含于该图像数据的符号有关的信息劣化。其原因为,在图像数据中相互相邻的2个像素的信息丧失。为了防止该问题,也可以使用高斯滤波器等能够用公式表现的特定滤波器来进行卷积处理或者根据应用成为低通滤波器、带通滤波器、最大值池化或者平均值池化等能够用公式表现的图像滤波器的函数的图像数据制作散布图,根据该散布图进行包络线的公式化。由此,虽然公式表现变得复杂,但能够在因果关系明确的状态下表现目标值和参数的关系。
进而,在希望得到高精度的多个参数的关系式的情况下,也可以对散布图应用卷积神经网络中的卷积运算或者激活函数等,从成为其输出结果的特征量用与上述相同的方法变换为数值数据,从根据该数值数据制作的散布图导出多个参数的关系式。在该情况下,在卷积神经网络中进行的运算被表现为多个行列式。能够根据使用包含于卷积神经网络的特定滤波器进行的特征量提取的结果,导出多个参数的关系式,所以能够将通过卷积神经网络得到的结果判断为公式。
另外,在实施方式1中的符号中,也可以将考虑多个符号之间的相关的式作为关系式输出。特别是,在将安装到印刷基板上的多个电路零件设为包含于图像数据的多个符号的情况下,在通过由于作为多个符号之间的磁耦合的互感或者作为电场耦合的寄生电容(或者杂散电容)引起的空间耦合,安装到印刷基板上的IC或者电路零件的工作与IC单体或者电路零件单体的工作不同的情况下,通过导出该关系式,能够掌握两者的关系性。以往,关于该关系性,在电磁场仿真或者实测等中处理,其导出过程成为作为黑盒而难以掌握的值。但是,根据实施方式2,能够将在电路图或者电路仿真中未呈现的空间耦合表现为图像数据,所以能够得到与以往不同的效果。进而,使用该关系式,无需进行仿真以及实测,而能够预测相对于电路设计的目标最佳的位置关系。在图像数据中,也可以随着时间经过而符号的位置或者大小变化。另外,也可以将连接2个符号的布线等符号以外的信息变化的条件也包含到学习数据。进而,不随着时间经过变化的部位在图像数据中也可以不表现。在EMC领域中在图像数据中需要表现的部位也可以限定于噪声滤波器、缓冲电路或者屏蔽构造等可能变化的部位。通过限定在图像数据中表现的部位,能够降低多个参数的关系式的导出所需的计算资源或/和计算时间。
以上,根据实施方式2所涉及的信息处理装置,能够利用进行处理的信息处理装置简易地实现将数值数据和位置信息的关联性反映到针对图像数据的该处理。
实施方式3.
在实施方式3中,说明通过更新图像数据,使图像辨识模型针对包含于该图像数据的符号的辨识精度提高的结构。图23是示出实施方式3所涉及的信息处理装置3的功能结构的框图。信息处理装置3的功能结构是对图1的信息处理装置1追加了图像更新部50的功能结构。其以外的信息处理装置3的功能结构与信息处理装置1相同,所以不反复与该功能结构有关的说明。
如图23所示,图像数据Im1、Im2被输入到图像更新部50。图像更新部50更新图像数据Im1、Im2,将更新后的图像数据Im1、Im2分别输出给学习部10以及推断部20。
图24是示出图23的信息处理装置3的硬件结构的框图。信息处理装置3的硬件结构是对图7所示的存储设备53追加了图像更新程序Pg4的结构。其以外的信息处理装置3的硬件结构与信息处理装置1相同,所以不反复说明。如图24所示,图像更新程序Pg4是用于更新图像数据的程序。执行图像更新程序Pg4的处理电路51作为图23的图像更新部50发挥功能。
以下,说明在图23的图像更新部50中进行的通过重叠噪声执行的输入信号(图像数据)的更新处理。
在图像辨识模型θ1包括卷积神经网络的情况下,通过构成卷积神经网络的各层的滤波器的行列式(加权矩阵),更新输入到图像辨识模型θ1的图像数据。但是,也可以在学习时通过针对通过使用与学习数据Ld1类似的学习数据的学习得到的其他图像辨识模型进行迁移学习,根据其他图像辨识模型构成已学习的图像辨识模型θ1。通过使用迁移学习,相比于使未学习的图像辨识模型θ1成为已学习模型的情况,能够降低学习成本。
在将输入到图像辨识模型θ1的信号(图像数据)设为s时,在包含于信号s的符号与和配置于三维构造物的物体关联的数值数据对应的情况下,信号s被表现为三维的张量矩阵。在该符号与和配置于二维平面的物体关联的数值数据对应的情况下,信号s被表现为矢量矩阵。在该符号与和配置于直线上的物体关联的数值数据对应的情况下,信号s被表现为标量矩阵。信号s也可以表现为4维以上的多维的矩阵。另外,图像辨识模型θ1的输出(目标值y)也可以是标量矩阵、矢量矩阵、或者张量矩阵中的任意矩阵。例如,通过在深度学习中变更紧接着输出层之前的隐藏层的函数,任意的构造的输出都能够生成。
将符号函数设为如以下的式(1)定义的sign。
[式1]
式1
将平方和误差或者交叉熵等任意的损失函数设为L,将变更的微小量设为ε。如以下的式(2)更新信号s。在式(2)中,对信号s加上与损失函数L的变化方向(斜率的符号)相逆的朝向(相逆的符号)的更新信号。
[式2]
式2
另外,在被称为对抗性的攻击(Adversarial Attack)的技术中,如以下的式(3)更新信号s。在式(3)中,对信号s加上与损失函数L的变化方向相同的朝向(相同的符号)的更新信号(噪声)。对抗性的攻击的目的在于确保图像辨识模型θ1针对噪声的鲁棒性。
[式3]
式3
在实施方式3中,使用使损失函数L的斜率的符号反转的式(2),以使损失函数L最小化的方式更新图像数据,使相对于图像辨识模型θ1的图像数据的辨识精度提高。此外,使用式(2)的方法是在逆方向上使用对抗性的攻击(对数据加上噪声使图像辨识模型的判定结果出现错误的方法),对数据加上噪声而使图像辨识模型的判定结果的精度提高的技术。因此,将使用式(2)的方法定义为友好攻击(Friendly Attack)。
图25是示意地示出使用友好攻击通过更新信号ds更新输入到图像辨识模型θ1的信号s的样子的图。如图25所示,通过对与信号s对应的图像数据22重叠与噪声ds对应的图像数据27,信号s被更新为与图像数据28对应的信号。
图26是示出通过式(2)更新作为手写数字的分类问题的MNIST(ModifiedNational Institute of Standards and Technology)的图像数据后的样子的图。图26所示的4个图像数据(a)、(b)、(c)、(d)表示数字的5。以下的表2表示针对图像数据(a)、(b)、(c)、(d)各自进行的加上噪声的更新处理的试行次数、该图像数据被辨识为3的精度以及该图像数据被辨识为5的精度的对应。
[表2]
表2
试行次数 | 0 | 20 | 40 | 60 |
被辨识为3的精度 | 99.45% | 0.003% | 0%<1e-7% | 0%<1e-12% |
被辨识为5的精度 | 0.05% | 98.80% | 99.46% | 99.98% |
如表2所示,通过对被辨识为5的精度为0.05%的图像数据(a)加上噪声,能够根据更新处理的试行次数的增加,使被辨识为5的精度提高。更新处理的试行次数为60次的图像数据(d)被辨识为5的精度是99.98%。被输入图26所示的图像数据的卷积神经网络具有3层的隐藏层。根据该卷积神经网络,关于图像辨识所需的计算时间,在基于未搭载GPU等专用硬件的通用PC(Personal Computer,个人计算机)时,针对每1个符号为3秒以下。如果是隐藏层的数量为3层程度的比较小的模型,则即便是智能手机等,也能够以10秒程度进行1个符号的图像辨识的计算。进而,与对形状的区分模糊性比较高的手写文字不同,在实施方式3中使用圆或者四方形等对形状的区分模糊性比较少的符号,所以能够从已学习的图像辨识模型θ1的辨识精度的初始值高到99%程度的状态开始更新处理。因此,能够通过上述更新处理,生成辨识精度为99.999%以上的图像数据。
另外,通过将如上所述更新后的符号配置到实施方式1所示的图像数据,能够使针对该符号的图像辨识模型θ1的辨识精度提高。进而,在处理该图像数据的信息处理装置中作为图像辨识模型θ1使用卷积神经网络的情况下,该卷积神经网络的至少最接近输入层的层中的滤波器的尺寸优选小于包含于辨识对象的符号的像素数。
此外,通过使用对图像数据重叠噪声的更新处理,能够将任意的图像数据作为密钥辨识。例如,通过针对每个使用者(用户)指定的不同的图像数据,使事先学习的图像辨识模型进行迁移学习,制作针对每个使用者性质不同的已学习的图像辨识模型。之后,通过使该图像辨识模型学习使用者希望作为密钥的图像数据,并对图像数据重叠噪声,能够利用仅使用者能够高精度(例如检测精度99.99%以上)地辨识的图像数据制作密钥。迁移学习以及在实施方式3中进行的友好攻击的计算成本比较小,所以无需向配置有高性能的计算机的云环境发送图像数据,即便是如移动终端(例如智能手机)的计算机,也能够实时地生成密钥。其结果,能够制作在安全面上也比以往的密钥优秀的密钥。
此外,在上述中,说明了将针对每个用户制作的图像辨识模型作为密钥孔并且将通过该图像辨识模型的友好攻击生成的图像数据作为密钥的情况。但是,也可以将图像辨识模型作为密钥,将图像数据作为密钥孔。即,在前者的情况下,在信息处理装置中预先保持成为图像辨识模型的权重矩阵,在信息处理装置辨识到期望的图像数据时,解除密钥。另一方面,在后者的情况下,在信息处理装置中预先保持图像数据,在具有成为图像辨识模型的权重矩阵的信息处理装置辨识到该图像数据时,解除密钥。但是,在使用神经网络的情况下,难以使图像数据的辨识精度成为100%,所以例如优选使该辨识精度成为99.99%以上或者在污垢易于附着的场所使辨识精度成为99%以上等,与环境符合地设定阈值。特别是,在污垢易于附着的场所,优选包括在图像辨识模型的学习数据中包含污垢的图像的图像数据或者生成通过对抗性的攻击克服污垢等噪声能力强的图像数据。
以上,根据实施方式3所涉及的信息处理装置,能够利用进行处理的信息处理装置简易地实现将数值数据和位置信息的关联性反映到针对图像数据的该处理。
实施方式4.
在实施方式4中,说明使针对包含于图像数据的符号的图像辨识模型的辨识精度提高的结构。实施方式4所涉及的信息处理装置与图1的信息处理装置1相同,所以不反复与同样的结构有关的说明。以下,在实施方式4中说明特征性的符号的结构。
图27是示出作为实施方式4所涉及的符号的一个例子的符号41的结构的图。如图27所示,在符号41的内部追加了用于掌握符号41的大小、符号41的点的粗细或者符号41的朝向的子符号42。也可以在符号41的内部追加多个子符号42。无需在符号41内的至少1个子符号42的判定中使用机器学习。例如,也可以利用如QR(Quick Response,快速响应)代码读取器那样的图像处理装置取得子符号的信息,向使用已学习的图像辨识模型的信息处理装置输入该信息。信息处理装置能够根据该信息,例如确定卷积神经网络中的滤波器(或者内核)的大小或者朝向等信息。特别是,确定该朝向的校正、池中的滤波器尺寸、滤波器的大小或者滤波器的卷积朝向等。子符号42的位置无需一定为符号41的四角中的任意角。在符号41是二维的图像的情况下,通过在符号41的2个部位以上配置子符号42,能够进行包括符号41的斜率的判定。其结果,能够使被输入包括符号41的图像数据的信息处理装置的辨识精度提高。另外,在表现了N(≧3)维的空间的图像数据中,为了使符号41的区域明确化,优选将多个子符号42配置到N个部位以上、更优选配置到(N+1)个部位以上。其结果,能够使信息处理装置的辨识精度提高。
另外,通过利用子符号42表示符号41的朝向,能够将形状相同且朝向不同的多个符号(例如上朝向的三角形的符号和下朝向的三角形的符号)与相互不同的种类的数值数据分别对应地配置到1个图像数据。其结果,无需增加形状、阴影或者颜色而能够通过改变与该符号相同形状的符号的朝向来制作图像辨识模型θ1的辨识精度高的符号。
图28是示出作为实施方式4所涉及的符号的其他例子的符号41A的结构的图。如图28所示,符号41A构成为多个点的组合。也可以在包含于符号41A的点Dt1配置子符号42A。例如,在符号41A包括p×q(p、q是正的整数)个点的情况下,通过在某个点内将1/p×1/q的大小的片(四边形)作为子符号42A配置到该点的中央部,能够表示符号41A的大小或者朝向。此外,构成为多个点的组合的符号的形状无需一定为正方形,而可以是长方形或者菱形等任意的形状。进而,多个点的组合无需为等间隔的格子状,只要具有通过使用组合了对数以及指数等的四则运算的规则决定的大小以及形状,则可以是任意的组合。
以上,根据实施方式4所涉及的信息处理装置,能够利用进行处理的信息处理装置简易地实现将数值数据和位置信息的关联性反映到针对图像数据的该处理。
实施方式5.
在实施方式5中,说明从包含于数值参数的多个参数删除与目标变量的关联相对低的参数而使学习处理以及推断处理高速化的结构。图29是示出实施方式5所涉及的信息处理装置5的功能结构的框图。信息处理装置5的功能结构是对图12的信息处理装置2追加了维度削减部60的功能结构。其以外的信息处理装置5的功能结构与信息处理装置2相同,所以不反复与该功能结构有关的说明。
如图29所示,数值数据组Sn1、Sn2被输入到维度削减部60。维度削减部60削减包含于数值数据组Sn1、Sn2的多个数值数据各自的维度并输出到图生成部40。此外,图29所示的数值数据的维数是p。
图30是示出图29的信息处理装置5的硬件结构的框图。信息处理装置5的硬件结构是对图13所示的存储设备53追加了维度削减程序Pg6的结构。其以外的信息处理装置5的硬件结构与信息处理装置1相同,所以不反复说明。如图30所示,维度削减程序Pg6是用于削减数值数据的维度的程序。执行维度削减程序Pg6的处理电路51作为图29的维度削减部60发挥功能。
以下,在实施方式5中说明特征性的参数的删除(维度削减)处理。
在包含于数值数据的多个参数比较多的情况下,为了生成该多个参数的所有组合的散布图需要大量的时间。例如,即便是作为比较少的数据量的MNIST的图像数据,该图像数据也具有784(=28×28)个像素。因此,在将MNIST的图像数据捕捉为具有多个参数的数值数据的情况下,该数值数据具有784个参数。但是,该图像数据的四角附近的像素几乎没有信息,所以在该像素与目标变量(正确答案标签)之间几乎看不到关系性的情况多。因此,即使从包含于数值数据的参数删除与目标变量的关系性低的参数,也能够维持目标变量。关于图像数据以外的数值数据,也能够同样地删除不需要的参数。其结果,能够使实施方式5所涉及的信息处理装置执行的学习处理以及推断处理比实施方式2所涉及的信息处理装置高速化。
作为可从数值数据删除的参数,可以举出即使使值变化但正确答案标签也不会变化的参数或者不依赖于正确答案标签的参数。在即使使参数的值变化但正确答案标签也不会变化的情况下,在表示该参数和目标变量的关系的散布图中,有点沿着与表示该参数的轴平行的直线分布的情况。参数不依赖于正确答案标签的情况是如白噪声那样在表示该参数和正确答案标签的关系的散布图中看到均匀的分布的情况。在表示某个参数和正确答案标签的关系的散布图中,在点的分布样式如这些的情况下,能够从数值数据删除该参数。另外,在无法根据散布图中的点的分布样式判定参数的必要性的情况下,能够计算该参数与正确答案标签之间的互相关来去除该相关关系小的参数。另外,在参数是模拟值(连续量)的情况下,也可以使用通过包括深度学习的机器学习已学习的学习模型进行扰动法。另一方面,在参数中包括数字值(不连续量)的情况下,也优选针对每个数字值分其他参数,针对各参数进行扰动法。例如,在参数具有1、2、3、4这样的数字值的情况下,也可以在参数为1的情况、参数为2的情况、参数为3的情况以及参数为4的情况各自的情况下进行扰动法。即,也可以观测针对输入到学习模型的参数的变动的作为该学习模型的输出的目标变量的变动,从数值数据去除目标变量的变动比较小的参数。
在信息处理装置5中,这样,从数值数据去除不需要的参数后制作散布图,根据该散布图计算关系式。也可以在根据作为未去除的主要分量的参数的散布图计算关系式之后,使用曾经被去除的参数来更新关系式,使该关系式高精度化。例如,也可以从目标值减去根据主要分量的参数制作的关系式的分量,使用剩下的残差分量和去除的参数来计算新的关系式。在该情况下,由于主要分量的常数的误差而在残差中积蓄误差,所以在参数多且关系式的精度降低的情况下,无需使用残差分量。
如在上述中说明,关于无法根据散布图的分布样式判定必要性的参数,能够使用机器学习来删除参数。在使用散布图来判定必要性的方法中在去除对目标值的决定影响力小的不需要的参数之后,针对剩下的参数通过能够学习参数的机器学习的算法进行学习。不需要的参数被删除,所以能够缩短该机器学习的计算时间。能够使用该机器学习的结果,通过扰动法计算对各参数的结果的影响度。扰动法是指观测输入参数变化时的目标值的变化的方法。具体而言,向已学习的学习模型输入学习数据附近的数值,观测目标值的变化量。
以下,以表示与弹簧的端部连接的物体的能量守恒定律的以下的式(4)为例子,说明参数的删除。
[式4]
式4
在式(4)中,E表示物体具有的能量。m表示物体的质量。v表示物体的速度。g表示重力加速度。h表示物体的高度。k表示弹簧常数。x表示弹簧的位移。能量E是目标变量。质量m、速度v、重力加速度g、高度h、弹簧常数k以及位移x是参数(说明变量)。在利用散布图的分类中从参数去除与能量E无关的重力加速度g。之后,通过梯度提升法,计算决策树中的质量m、速度v、高度h、弹簧常数k、以及位移x各自的特征量的重要性(Feature Importance)。表3表示质量m、速度v、高度h、弹簧常数k以及位移x各自的特征量的重要性。
[表3]
表3
特征量 | 特征量的重要性 |
x | 668 |
v | 648 |
m | 542 |
k | 488 |
h | 181 |
特征量的重要性表示为了决定目标变量而在决策树中使用的次数。作为常数的重力加速度g对结果造成的影响度比较小。另一方面,关于位移x以及速度v,根据表3,分特征量的重要性大致相同。另外,关于位移x以及速度v,在式(4)中进行平方,所以对目标变量E具有比其他参数大的影响。这样,关于各个参数,计算对目标变量的影响度或者特征量的重要性,削减如重力加速度g那样的不需要的参数,从而能够削减为了导出与散布图有关的关系式而所需的计算时间。例如,在有n个参数的情况下,必要的散布图以O(n2)的数量级增加,所以通过削减1个参数,能够减少n(=n{n+1}/2-{n(n-1)}/2)个散布图。
在上述中,说明了使用决策树的情况,但在其他机器学习中,有使用利用重排的重要性判定(Permutation Importance)的情况。另外,也可以使用使输入值逐次变化1个参数,测量目标变量的变化量的扰动法。此外,在使用扰动法的情况下的参数量是模拟值的情况下,关于该变化量,该模拟值的最大值与最小值的差优选为最大值的1%以下。在该参数量是数字值的情况下,优选将相邻的值(例如在参数是整数值N的情况下为N-1和N+1)等接近原来的数据的值作为扰动法的输入值。
在如上所述进行表示相对于目标变量的各参数的重要性的加权之后,能够对照能够使用的计算资源或者计算时间,变更削减的参数的个数。在计算资源比较少的情况或者希望缩短直至算出结果的计算时间的情况下,在上述能量守恒定律的例子中,还能够与平方成比例地使用作为主要的参数的位移x以及速度v来求出能量E。在一般的计算机中,优选将参数数削减至成为重要性的加权的次序的前10个程度。
另一方面,在目标变量与参数之间完全未看到相关的情况或者在所有参数与目标变量之间看到类似的相关的情况下,认为未针对目标变量输入必要的参数。在该情况下,需要重新评估参数(例如测定条件等)。另外,在哪个参数都成为同样的数值的情况下,存在在参数与目标变量之间存在强相关的可能性。在该情况下,目标变量以及多个参数成为根据各参数之间的散布图或者互相关具有强依赖关系的数据。因此,表示各参数相对于目标变量的重要性的加权还能够用于减少观测点等参数的测定方法改善等。这是如以往仅通过互相关无法判断的,通过使用散布图或者机器学习的算法,能够预测高精度的结果。
在上述中,说明了根据特征量的重要性或者利用重排的重要性判定以及扰动法进行参数的削减(维度削减)的方法。也可以组合主分量分析(PCA:Principal ComponentAnalysis)、奇异值分解(SVD:Singular Value Decomposition)、独立分量分析(ICA:Independent Component Analysis)以及线性判别分析(SDA:Linear DiscriminantAnalysis)等来进行维度削减。另外,也可以使用组合了这些手法和利用重排的重要性判定的方法。但是,上述计算的计算量都比较大。因此,在数值数据是包含非常大量的参数的大数据的情况下,通过在进行上述计算之前进行使用散布图的计算,并进行去除不需要的参数的处理,无需进行大幅的计算而能够削减参数。另外,在数值数据是比较小的数据的情况下,通过使用等高线或者直方图,不会产生过学习而能够掌握数值数据的特性。例如,在如物理实验那样不能收集1000个以上的数据的情况下,使用能够表现数据可能的分布或者密度的等高线或者能够表现数据的大致的分布的直方图的方法有效。
以上,根据实施方式5所涉及的信息处理装置,能够利用进行处理的信息处理装置简易地实现将数值数据和位置信息的关联性反映到针对图像数据的该处理。
实施方式6.
在实施方式6中,说明根据散布图等图像数据计算的关系式的活用例。在针对1个条件需要比较长的计算时间的仿真、实验或者参数数多的仿真条件中,根据以往的方法,难以判断需要优先计算哪个参数的情况多。在这样的情况下,使用蒙特卡罗法或者使所有参数等间隔地均匀分散来计算的方法的情形多。为了防止这样的网罗计算,有时使用利用遗传算法等来削减参数数的方法。但是,该方法不仅计算量大而且判断的根据也不明确。因此,在物理现象等要求需要根据的设计的情况下,使用遗传算法等来削减参数数并不合适。
另一方面,在实施方式6中,通过根据仿真条件和仿真结果的组合,针对每1次的仿真或者每几次的仿真,计算仿真结果与和仿真条件有关的参数之间的关系式,能够容易地决定接下来的仿真条件。例如,设为通过在实施方式2、5中说明的结构,导出以下的式(5)所示的关系式。
[式5]
式5
在式(5)中,P是目标变量。z是位置参数。u是材质参数。在式(5)中,在目标变量P的导出中,使用位置参数z的平方的值以及材质参数u的平方根。因此,相比于材质参数u观测位置参数z,在针对目标变量P的微调整的阶段中观测材质参数u时,能够高效地达到期望的目标变量P。另外,在与其他仿真条件类似的仿真条件下进行仿真的情况下,通过事先掌握与该其他仿真条件对应的如式(5)那样的关系式,能够通过比通常少的次数的仿真达成输出期望的目标变量的仿真条件。不仅将这样根据仿真结果得到的知识作为关系式留下,而且针对类似的设计使用相同的关系式,从而不针对每次仿真计算关系式也可,所以能够高速地找到能够使目标变量成为期望的值的仿真条件。
在以往的遗传算法等方法中,存在在加上新的仿真条件时,无法再利用此前的仿真结果,需要再计算关系式的问题。因此,由于产生反问题,每次仿真的计算成本易于变大。另一方面,在实施方式6中的散布图的学习方法中,能够进行仅成为图像辨识模型的再利用的推断的运算,能够在几秒至几分以内通过图像辨识模型导出关系式。该学习处理还能够用于能够在仿真或者实验期间决定接下来的参数以及能够在仿真或者实验结束后提取使目标变量成为期望的值的仿真条件或者实验的观测条件。
另外,实施方式6所涉及的学习方法不仅能够应用于实验或者仿真,而且只要是导出产品价格的设定或者产品的评价等某个条件下的结果的结构或者定义随着时间经过而变化的机械的故障预测或者人的行动预测等输入和输出的关系的结构,则能够应用于任意的结构。特别是,关于与随着时间经过而变化的结构有关的时序数据,通过利用短时傅里叶变换变换为将横轴设为时间并将纵轴设为频率特性的频谱图,能够设为二维的图像数据。通过代替散布图而使用该图像数据,能够通过与针对散布图的处理同样的处理导出与频谱图有关的关系式。但是,与散布图的情况不同,需要使图像辨识模型θ1事先学习频谱图。另外,即便是实施方式1中的图像数据,通过将数值数据作为符号配置到图像数据,能够导出与该图像数据关联的关系式。例如,在基板CAD(Computer-Aided Design,计算机辅助设计)中,将电路零件的电路常数或者ID作为符号配置到基板CAD内,并将该基板CAD输入到电磁场仿真,并将仿真结果作为教师数据,从而能够导出与在CAD与仿真结果之间关系对应的关系式。
另外,在机器学习中,有在超参数的调整中需要大量的时间的情况。通过计算针对各超参数的图像辨识模型θ1的精度,并使用它们导出关系式,能够实现超参数调整的高速化。也可以通过逐次计算,算出该关系式。在所有计算完成后算出该关系式,并在其他学习定时使用该关系式,从而易于计算对各机器学习最佳的超参数。另外,通过关系式,还能够掌握超参数之间的关系性,所以能够使用该关系式来算出超参数。其结果,在针对类似的数据使用类似的算法的情况下,能够去除无需变更的超参数,并且提取需要优先地变更的超参数,能够使第2次的试行以后的设计效率提高。
以上,根据实施方式6所涉及的信息处理装置,能够利用进行处理的信息处理装置简易地实现将数值数据和位置信息的关联性反映到针对图像数据的该处理。
实施方式7.
在实施方式7中,说明在实施方式2中说明的散布图的分布偏移的情况下将该分布变换为均匀分布的结构。图31是示出实施方式7所涉及的信息处理装置7的功能结构的框图。信息处理装置7的功能结构是将图12的图生成部40置换为40A的结构。其以外的信息处理装置7的功能结构与信息处理装置2相同,所以不反复与该功能结构有关的说明。
如图31所示,图生成部40A生成包括表示包含于数值数据组Sn1的多个数值数据的分布被均匀化的均匀分布的散布图Sp11的散布图组Ss1,将散布图组Ss1输出给学习部10。图生成部40A生成包括表示包含于数值数据组Sn2的多个数值数据的分布被均匀化的均匀分布的散布图Sp21的散布图组Ss2,将散布图组Ss2输出给推断部20。
图32是示出图31的信息处理装置7的硬件结构的框图。信息处理装置7的硬件结构是将图13所示的图生成程序Pg3置换为Pg7的结构。其以外的信息处理装置7的硬件结构与信息处理装置2相同,所以不反复说明。如图32所示,图生成程序Pg7是用于接受数值数据组,生成包括根据包含于该数值数据组的多个数值数据生成的多个均匀分布的散布图组的程序。执行图生成程序Pg7的处理电路51作为图31的图生成部40A发挥功能。
以下,说明由图生成部40A进行的均匀分布的生成处理。
在以物理实验等自然现象为对象的结构中得到的散布图具有并非正态分布(高斯分布)的特有的分布或者并非均匀分布的特有的分布的情况多。另外,关于成为测定条件的参数,也用经验法则重点地测定得到最期望的特性的区域的情形多,所以有在测定结果的分布中产生偏移的情况。进而,在实测或者试行次数受限的大量的环境中无法充分取得数据的情况下,由于学习数据的不足,无法充分地进行学习处理。例如,在100点以下的少的数据下,难以通过深度学习生成具有高的精度的已学习模型。在这样的情况下,代替在实施方式2中说明的散布图而使用等高线的方法有效。特别是,在参数和目标值(正确答案数据)成组的教师数据的数量是1000个以下程度的情况下,使用如图17所示的等高线的方法有效。
另一方面,在数据有1000个以上的情况下,即使包括不需要的参数,也能够生成能够通过以往已知的机器学习算法高精度地计算目标变量的已学习模型。
在分类问题中的机器学习算法中,包括随机梯度下降法(SGD:StochasticGradient Descent)、支持向量机、k最邻近法(k-NN:k-Nearest Neighbors)、使用深度神经网络(DNN:Deep Neural Network)的深度学习、梯度提升(Gradient Boosting)、决策树等。在回归问题中的机器学习算法中,包括SGD、Lasso回归(Lasso:Least absolute shrinkageand selection operator)、弹性网络回归(ElasticNet)、支持向量回归(SVR:SupportVector Regression)、梯度提升、深度学习或者作为它们的组合的集成学习等。进而,也可以使用各机器学习算法的结果的平均值。
即使在数据有1000个以上的情况下在数据的分布中有偏移的情况下,难以提取如在实施方式2中说明的散布图中的平行分量。一般而言,与物理现象有关的数据依照正态分布的情形多。在这样的情况下,在散布图中数据的平均值周边的浓度浓,在其周边部浓度变薄。在该情况下,即使散布图中的数据的分布具有平行的特性,由于接近如图33所示的圆状的分布,所以难以从该分布提取平行分量。在这样的情况下,图生成部40A针对各参数之间的散布图进行聚类,将散布图分割为多个边界区域。此外,散布图也可以每次分割2个参数来处理。但是,如果能够确保能够同时处理数据的存储器,则在有M个参数和N个目标变量的情况下,优选最大在M+N维空间进行聚类,求出边界区域。另外,在参数中包括数字值(非连续的离散值)的情况下,优选针对该参数的每个离散值进行聚类。进而,图生成部40A针对各参数制作如图34所示的均匀分布,并对上述聚类结果(多个边界区域)应用该均匀分布,更新该散布图。图生成部40A将更新的散布图输出给学习部10或者推断部20。
此外,图33所示的散布图中的参数x1的范围是x1_min以上且x1_max以下。图34所示的均匀分布的散布图中的参数x1的范围与图33所示的散布图中的参数x1的范围相同。这样,关于均匀分布,优选在原来的数据的范围内制作,但对于确认了物理上的连续性的参数,为了针对原来的数据进行外插,也可以使用比原来的数据宽的范围的均匀分布。例如,如式(4)所示的能量方程式中的速度v那样,对于预想与某个物理量成比例的参数,在速度v的数据的范围为1m/s~10m/s时,也可以使均匀分布的范围成为-10m/s~20m/s。进而,在必要的区域窄也可以的情况下,可以生成5m/s~7m/s的均匀分布。
在上述中说明的聚类中,包括支持向量聚类(SVC:Support Vector Clustering)以及使用CNN的聚类。关于在上述中说明的聚类,只要是组合了k-means法等古典的机器学习以及深度学习等的方法,则可以是任意的方法。另外,在聚类中定义的距离中,包括一般的欧几里得距离、马氏距离、曼哈顿距离等。
如上所述,在散布图中分布的数据的个数少的情况下,难以通过深度学习生成具有高的精度的已学习模型。但是,如果能够通过均匀分布增加数据,则能够使用深度学习。但是,在比较针对原来的数据进行任意的学习并使用原来的数据的一部分的测试数据评价的精度和针对通过均匀分布制作的数据进行学习并使用原来的数据的一部分的测试数据评价的精度,而其结果是后者的精度比前者的精度降低10%以上的情况下,优选重新评估均匀分布的制作方法。特别是,如上所述,通过减小均匀分布的范围、变更聚类的方法或者变更处理数据的机器学习的算法,能够不降低精度而生成数据。
但是,根据数据的分布的偏差,有难以在上述聚类中插值的情况。在这样的情况下,并非通过深度学习而能够通过随机森林、梯度提升法、以往的机器学习或者集成学习等,利用实施方式7所涉及的信息处理装置推断能够以90%以上的高的精度预测解的关系式。但是,即使针对学习数据的精度提高也由于过学习导致的情况多,所以与以往同样地,需要与学习数据独立地预先准备测试数据或者需要使用利用交叉处理的方法来评价。进而,也可以使用计算多个机器学习的推测值的平均或者多数决定的集成学习。
以上,根据实施方式7所涉及的信息处理装置,能够利用进行处理的信息处理装置简易地实现将数值数据和位置信息的关联性反映到针对图像数据的该处理。
实施方式8.
在实施方式8中,说明通过生成模型自动地生成由实施方式1所涉及的信息处理装置处理的具有期望的特性的图像数据的结构。图35是示出实施方式8所涉及的信息处理装置8的功能结构的框图。信息处理装置8的功能结构是对图1的信息处理装置1追加了图像生成部80以及图像生成模型θ2并且将学习部10置换为10A的功能结构。这些以外的信息处理装置8的功能结构与信息处理装置1相同,所以不反复与该功能结构有关的说明。
如图36所示,学习部10A通过使用包括图像数据Im1的学习数据Ld1的机器学习,将图像辨识模型θ1以及图像生成模型θ2作为已学习模型。图像生成部80使用图像生成模型θ2,根据多个源数据Sd21~Sd2K生成图像数据Im2,将图像数据Im2输出给推断部20。
图36是示出图35的信息处理装置8的硬件结构的框图。信息处理装置8的硬件结构是对图7所示的存储设备53追加了图像生成模型θ2以及图像生成程序Pg8,并且将机器学习程序Pg1置换为Pg1A的结构。这些以外的信息处理装置8的硬件结构与信息处理装置1相同,所以不反复说明。如图36所示,机器学习程序Pg1A是用于针对图像辨识模型θ1以及图像生成模型θ2进行机器学习的程序。图像生成程序Pg8是用于根据多个源数据生成包括与该多个源数据分别对应的多个符号的图像数据的程序。在机器学习程序Pg1A以及图像生成程序Pg8中,参照图像生成模型θ2。执行机器学习程序Pg1A的处理电路51作为图35的学习部10A发挥功能。执行图像生成程序Pg8的处理电路51作为图35的图像生成部80发挥功能。
作为图像生成模型θ2,例如,能够用作为深度学习的应用例之一的生成对抗网络生成具有期望的特性的图像。生成对抗网络是使2个CNN等网络同时学习,使一方的网络生成数据(生成器),使另一方的网络(识别器)具有判定生成的数据是否真实的功能的结构。
图37是示出使用已学习的图35的图像生成模型θ2生成的、作为电子电路的一部分的噪声滤波器70的图像数据Im8的图。如图37所示,噪声滤波器70包括电容器31-1、31-2和线圈32-1、32-2。在电容器31-1、31-2的零件常数和线圈32-1、32-2的零件常数被变更的3000条件下,计算电磁场解析。在图像数据Im8中,用相互不同的符号表现电容器31-1、31-2和线圈32-1、32-2。电容器31-1、31-2以及线圈32-1、32-2各自的零件常数被表现为与该零件对应的符号的大小(线的粗细)。图像数据Im8是使用包含于生成对抗网络的被称为DCGAN(Deep Convolutional Generative Adversarial Networks,深度卷积生成对抗网络)的结构,进行50000万次程度的试行次数,由多核的CPU通过1小时以下的学习处理生成的图像数据。
图38是示出由已学习的图35的图像生成模型θ2生成的、噪声滤波器70的其他图像数据Im8A、8B、8C、8D、8E、8F、8G、8H的图。按照图像数据Im8A~8H的顺序,噪声滤波器70的衰减量变大。通过多核的CPU,能够在10秒以内使用已学习的图像生成模型θ2来生成图像数据Im8A~8H。
如图38所示,确认随着衰减量变大,图像数据中的符号变大(线变粗)的倾向。但是,并非均匀地变大的原因在于,由于零件之间的空间耦合(电场耦合或者磁场耦合),噪声滤波器70的衰减量不同。这样,关于具有非线性的特性的物体的数值数据,也能够将该数值数据表现为符号。这样,通过使用已学习的图像生成模型θ2,能够生成具有包含于图像数据的物体的使用者(在该物体为电路的情况下设计者)意图的特性的数值数据的图像数据。能够根据包含于图像数据的符号的大小、尺寸或者形状,掌握与该符号对应的数值数据。
此外,在噪声滤波器的例子中,将零件常数作为参数,但通过对符号分配在实施方式1中说明的零件的ID等,不限于热或者振动等物理现象,在库存管理、人的动作路线控制或者系统设计等更广的领域中也能够应用通过图像生成模型生成图像数据的结构。
以上,根据实施方式8所涉及的信息处理装置,能够利用进行处理的信息处理装置简易地实现将数值数据和位置信息的关联性反映到针对图像数据的该处理。
还预定本次公开的各实施方式在不矛盾的范围内适当地组合而实施。应认为本次公开的实施方式在所有方面为例示而非限制性的。本公开的范围并非由上述说明示出而由权利要求书示出,意图包括与权利要求书均等的意义以及范围内的所有变更。
Claims (23)
1.一种信息处理装置,处理表现特定空间中的至少1个数值数据的分布的图像数据,其中,所述信息处理装置具备:
存储部,保存有图像辨识程序;以及
推断部,通过执行所述图像辨识程序,从所述图像数据提取与所述至少1个数值数据有关的特定信息,
具有与所述至少1个数值数据的各个对应的外观的符号配置于在所述特定空间中与该数值数据关联的位置。
2.根据权利要求1所述的信息处理装置,其中,
在所述存储部中还保存已学习的图像辨识模型,
所述图像辨识模型包括图像滤波器以及神经网络的至少1个,
所述推断部使用所述图像辨识模型来提取所述特定信息。
3.根据权利要求2所述的信息处理装置,其中,还具备:
图像更新部,以使定义与所述图像数据对应的所述图像辨识模型的输出和与所述图像数据对应的目标值的差的损失函数最小化的方式对所述图像数据重叠噪声来更新所述图像数据。
4.根据权利要求2或者3所述的信息处理装置,其中,还具备:
根据所述图像数据生成所述图像辨识模型的学习部。
5.根据权利要求1~4中的任意一项所述的信息处理装置,其中,
在所述存储部中还保存生成所述图像数据的生成模型,
所述信息处理装置还具备使用所述生成模型来生成所述图像数据的图生成部。
6.根据权利要求5所述的信息处理装置,其中,
所述生成模型包括生成对抗网络。
7.根据权利要求1~6中的任意一项所述的信息处理装置,其中,
所述至少1个数值数据与配置于所述特定空间的至少1个物体分别关联,
在所述特定空间中与所述至少1个数值数据的各个关联的位置是在所述特定空间中配置与该数值数据关联的物体的位置,
所述外观和与所述符号对应的数值数据的大小以及与该数值数据关联的物体的种类对应。
8.根据权利要求7所述的信息处理装置,其中,
所述符号包括表示所述大小以及所述种类的至少一方的多个点的组合。
9.根据权利要求7或者8所述的信息处理装置,其中,
所述符号包括表示所述大小以及所述符号的朝向的至少1个的子符号。
10.根据权利要求7~9中的任意一项所述的信息处理装置,其中,
所述特定空间表示安装至少1个电路零件的印刷基板上的二维平面,
所述符号与所述至少1个电路零件中的任意零件对应。
11.根据权利要求7~9中的任意一项所述的信息处理装置,其中,
所述特定空间表示配置至少1个传感器的三维空间,
所述符号与所述至少1个传感器中的任意传感器对应。
12.根据权利要求1~4中的任意一项所述的信息处理装置,其中,
所述至少1个数值数据的各个包括至少1个参数,
所述图像数据包括具有与所述至少1个参数分别对应的至少1个坐标轴的图。
13.根据权利要求12所述的信息处理装置,其中,还具备:
根据所述至少1个数值数据生成所述图的图生成部。
14.根据权利要求13所述的信息处理装置,其中,
所述图包括二维以上的散布图。
15.根据权利要求14所述的信息处理装置,其中,
所述图生成部:
针对所述二维以上的散布图进行聚类,将所述二维以上的散布图分割为多个边界区域,
针对所述至少1个参数的各个生成均匀分布,
对所述多个边界区域应用所述均匀分布,更新所述二维以上的散布图。
16.根据权利要求12~15中的任意一项所述的信息处理装置,其中,
所述至少1个数值数据包括第1参数和第2参数,
根据所述数值数据生成的图包括表示所述第1参数和所述第2参数的关系的第1散布图,
所述推断部:
从所述第1散布图提取平行的第1包络线以及第2包络线,
从所述第1包络线以及所述第2包络线的斜率导出表示所述第1参数的、所述第1参数和所述第2参数的第1关系式。
17.根据权利要求12~16中的任意一项所述的信息处理装置,其中,
所述至少1个数值数据还包括第3参数和第4参数,
所述推断部:
根据通过针对所述第3参数以及所述第4参数的至少一方的特定运算、或者针对所述第3参数以及通过所述特定运算取得的第5参数的至少一方的所述特定运算来取得的值的对数,生成表示所述第3参数和所述第4参数的关系、或者所述第3参数和所述第5参数的关系的第2散布图,
从所述第2散布图提取平行的第3包络线以及第4包络线,
从所述第3包络线以及所述第4包络线的斜率导出所述第3参数和所述第4参数的关系式或者所述第3参数和所述第5参数的关系式。
18.根据权利要求12~17中的任意一项所述的信息处理装置,其中,
所述至少1个参数包括目标变量,
所述信息处理装置还具备维度削减部,该维度削减部使用所述至少1个参数相对于所述目标变量的重要性的次序,进行所述至少1个参数的维度削减。
19.根据权利要求18所述的信息处理装置,其中,
所述维度削减部使用扰动法来计算所述次序。
20.根据权利要求12~17中的任意一项所述的信息处理装置,其中,
所述至少1个参数包括与仿真条件有关的参数、与实验的观测条件有关的参数或者机器学习的超参数。
21.根据权利要求3所述的信息处理装置,其中,
所述至少1个数值数据包括目标变量,
所述图像更新部通过友好攻击更新所述图像数据,
所述推断部使用所述图像辨识模型从通过所述友好攻击更新后的所述图像数据提取所述目标变量。
22.根据权利要求21所述的信息处理装置,其中,
所述图像辨识模型是通过将针对每个用户指定的图像数据作为学习数据的迁移学习生成的。
23.一种信息处理装置,处理表现特定空间中的至少1个数值数据的分布的图像数据,其中,所述信息处理装置具备:
存储部,保存有从所述图像数据提取与所述至少1个数值数据有关的特定信息的图像辨识模型;以及
学习部,将所述图像辨识模型作为已学习模型,
具有与所述至少1个数值数据的各个对应的外观的符号配置于在所述特定空间中与该数值数据关联的位置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/020708 WO2022254528A1 (ja) | 2021-05-31 | 2021-05-31 | 情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117377968A true CN117377968A (zh) | 2024-01-09 |
Family
ID=81607966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180098589.1A Pending CN117377968A (zh) | 2021-05-31 | 2021-05-31 | 信息处理装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240273890A1 (zh) |
EP (1) | EP4328854A4 (zh) |
JP (1) | JP7069435B1 (zh) |
CN (1) | CN117377968A (zh) |
WO (1) | WO2022254528A1 (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018124639A (ja) * | 2017-01-30 | 2018-08-09 | 日本電気株式会社 | データ分析システム、データ分析方法およびプログラム |
JP2018165948A (ja) * | 2017-03-28 | 2018-10-25 | 国立大学法人神戸大学 | 画像認識装置、画像認識方法、コンピュータプログラム、及び製品監視システム |
CN110866891A (zh) * | 2018-08-28 | 2020-03-06 | 株式会社摩如富 | 图像识别装置、图像识别方法及图像识别程序 |
CN112771516A (zh) * | 2018-09-26 | 2021-05-07 | 国立研究开发法人理化学研究所 | 分类装置、分类方法、程序以及信息记录介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080008376A1 (en) * | 2006-07-07 | 2008-01-10 | Lockheed Martin Corporation | Detection and identification of postal indicia |
JP7088597B2 (ja) * | 2016-09-28 | 2022-06-21 | スリーエム イノベイティブ プロパティズ カンパニー | 機械可読性物品のための耐遮蔽性光学コード |
JP6877978B2 (ja) | 2016-12-06 | 2021-05-26 | 日本電気通信システム株式会社 | 学習装置、学習方法およびプログラム |
-
2021
- 2021-05-31 JP JP2021563348A patent/JP7069435B1/ja active Active
- 2021-05-31 CN CN202180098589.1A patent/CN117377968A/zh active Pending
- 2021-05-31 US US18/563,401 patent/US20240273890A1/en active Pending
- 2021-05-31 WO PCT/JP2021/020708 patent/WO2022254528A1/ja active Application Filing
- 2021-05-31 EP EP21944036.9A patent/EP4328854A4/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018124639A (ja) * | 2017-01-30 | 2018-08-09 | 日本電気株式会社 | データ分析システム、データ分析方法およびプログラム |
JP2018165948A (ja) * | 2017-03-28 | 2018-10-25 | 国立大学法人神戸大学 | 画像認識装置、画像認識方法、コンピュータプログラム、及び製品監視システム |
CN110866891A (zh) * | 2018-08-28 | 2020-03-06 | 株式会社摩如富 | 图像识别装置、图像识别方法及图像识别程序 |
CN112771516A (zh) * | 2018-09-26 | 2021-05-07 | 国立研究开发法人理化学研究所 | 分类装置、分类方法、程序以及信息记录介质 |
Also Published As
Publication number | Publication date |
---|---|
JP7069435B1 (ja) | 2022-05-17 |
EP4328854A4 (en) | 2024-05-01 |
JPWO2022254528A1 (zh) | 2022-12-08 |
EP4328854A1 (en) | 2024-02-28 |
WO2022254528A1 (ja) | 2022-12-08 |
US20240273890A1 (en) | 2024-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Luo et al. | Decomposition algorithm for depth image of human health posture based on brain health | |
RU2711029C2 (ru) | Классификация касаний | |
Ma et al. | Hand joints-based gesture recognition for noisy dataset using nested interval unscented Kalman filter with LSTM network | |
Kannan et al. | Effective fuzzy c-means clustering algorithms for data clustering problems | |
WO2020061489A1 (en) | Training neural networks for vehicle re-identification | |
CN113272827A (zh) | 卷积神经网络中分类决策的验证 | |
US20130177235A1 (en) | Evaluation of Three-Dimensional Scenes Using Two-Dimensional Representations | |
Al-Sahaf et al. | Keypoints detection and feature extraction: A dynamic genetic programming approach for evolving rotation-invariant texture image descriptors | |
Mirehi et al. | Hand gesture recognition using topological features | |
CN105210115A (zh) | 使用2d图像数据来执行手势识别 | |
Shang et al. | Facilitating efficient mars terrain image classification with fuzzy-rough feature selection | |
CN109190559A (zh) | 一种手势识别方法、手势识别装置及电子设备 | |
Naik et al. | Improved and Accurate Face Mask Detection Using Machine Learning in the Crowded Places | |
Iqbal et al. | Learning feature fusion strategies for various image types to detect salient objects | |
Chew et al. | Large-scale 3D point-cloud semantic segmentation of urban and rural scenes using data volume decomposition coupled with pipeline parallelism | |
Cirrincione et al. | The growing curvilinear component analysis (GCCA) neural network | |
Dutta et al. | Complement component face space for 3D face recognition from range images | |
Li et al. | A robust multispectral palmprint matching algorithm and its evaluation for FPGA applications | |
Li et al. | A nonconvex archetypal analysis for one-class classification based anomaly detection in cyber-physical systems | |
CN107480627A (zh) | 行为识别方法、装置、存储介质和处理器 | |
Bi et al. | Critical direction projection networks for few-shot learning | |
Han et al. | Automatic detection and severity assessment of crop diseases using image pattern recognition | |
Tang et al. | Two-stage filtering method to improve the performance of object detection trained by synthetic dataset in heavily cluttered industry scenes | |
Anand et al. | DeLTa: Deep local pattern representation for time-series clustering and classification using visual perception | |
CN117377968A (zh) | 信息处理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |