CN109297974B - 信息处理装置 - Google Patents

信息处理装置 Download PDF

Info

Publication number
CN109297974B
CN109297974B CN201810828164.1A CN201810828164A CN109297974B CN 109297974 B CN109297974 B CN 109297974B CN 201810828164 A CN201810828164 A CN 201810828164A CN 109297974 B CN109297974 B CN 109297974B
Authority
CN
China
Prior art keywords
sensor data
data
combination
information processing
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810828164.1A
Other languages
English (en)
Other versions
CN109297974A (zh
Inventor
后藤健文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of CN109297974A publication Critical patent/CN109297974A/zh
Application granted granted Critical
Publication of CN109297974B publication Critical patent/CN109297974B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/54Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable using means specified in two or more of groups G01D5/02, G01D5/12, G01D5/26, G01D5/42, and G01D5/48
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/34Testing dynamo-electric machines
    • G01R31/343Testing dynamo-electric machines in operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8883Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/12Circuits of general importance; Signal processing
    • G01N2201/129Using chemometrical methods
    • G01N2201/1296Using chemometrical methods using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Neurology (AREA)
  • Medical Informatics (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Analytical Chemistry (AREA)
  • Signal Processing (AREA)
  • Manipulator (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Image Analysis (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

本发明提供一种信息处理装置,生成多个被输入到机器学习装置中的传感器数据的组合,将这些传感器数据的组合输入给机器学习装置,生成分别与传感器数据的组合对应的识别器。进一步,按照该识别器所要求的期待性能来评价该识别器的性能,并输出与满足期待性能的识别器对应的传感器数据的组合。这样,评价输入到机器学习装置的多个传感器数据的贡献度,将传感器结构最优化。

Description

信息处理装置
技术领域
本发明涉及一种信息处理装置,特别涉及一种评价输入到机器学习装置中的多个传感器数据的贡献率并能够将传感器结构最优化的信息处理装置。
背景技术
在机床等的控制和其关联领域中,机器学习装置被广泛使用。根据机器学习装置,例如能够输入通过多个摄像机拍摄工件而得到的图像数据来判定有没有划痕。另外,也能够将麦克风的输出值、电流的干扰值、加速度传感器等的输出值输入给机器学习装置,进行电动机的异常检测。
已知一种机器学习装置,其使用分类、递归、聚类等机器学习方法来识别从传感器等取得的多个输入数据。将这样组合多个传感器数据来进行机器学习的技术称为传感器融合。在实现传感器融合的机器学习装置中,除了输入从传感器等直接输出的数据(以下称为原始数据)提取的SIFT、SURF等为代表的特征量来进行机器学习的装置以外,还有直接输入原始数据并通过深层学习进行机器学习的装置等。
例如在日本特开平6-102217号公报中记载有以下技术,即作为传感器融合技术的一例,将多个气体传感器的输出信号取入到神经网络,根据在神经网络中被预先学习的识别模式来识别气体种类。
根据传感器融合,通过组合输入各种传感器数据能够实现高精度的学习、识别或推定等的处理。但是,系统地确定多个传感器数据中对学习、识别或推定结果的贡献率大或小的传感器数据,并为了满足要求性能而将传感器结构最优化的方法目前还不能够提供。例如,如果能够确定对学习、识别或推定结果的贡献率小的传感器数据,则不仅能够削减传感器本体或传感器数据取得所需要的金钱成本等,还能够抑制数据的测量、取得以及处理所花费的时间和负荷等,并能够高速地输出结果。
发明内容
本发明是为了解决这样的问题而提出的,其目的为提供一种评价输入到机器学习装置中的多个传感器数据的贡献率并能够将传感器结构最优化的信息处理装置。
本发明的一个实施方式的信息处理装置具有输入不同的多个传感器数据来进行机器学习的机器学习装置。而且,该信息处理装置具有:输入数据控制部,其设定用于生成一个以上的上述传感器数据的组合的选择规则;输入数据选择部,其按照上述选择规则生成多个上述传感器数据的组合,将上述传感器数据的组合输入给上述机器学习装置,生成分别与上述传感器数据的组合对应的识别器;期待性能设定部,其设定上述识别器所要求的期待性能;以及性能评价部,其按照上述期待性能评价上述识别器的性能,并输出与满足上述期待性能的上述识别器对应的上述传感器数据的组合。
上述期待性能根据上述传感器数据的取得成本来定义,上述传感器数据的取得成本可以根据取得上述传感器数据的传感器的价格、上述传感器设置的难易度或者上述传感器数据的取得或处理所需要的费用、时间或处理负荷来进行计算。
上述期待性能可以通过上述识别器的知识率、准确率、召回率或F值来定义。
上述传感器数据可以与温度、位移、压力、电流、速度、加速度、图像、亮度、声音、气味或者长度的至少任意一方有关。
上述性能评价部可以具有提示多个满足上述期待性能的上述传感器数据的组合并使用户选择希望的上述传感器数据的组合的界面。
上述识别器可以通过神经网络来构成。
上述输入数据控制部还能够设定上述神经网络的中间层的结构的设定规则。
上述输入数据控制部能够具有删除在上述神经网络中从输入层到中间层的耦合系数小的上述传感器数据的上述选择规则。
上述输入数据控制部能够具有删除在上述神经网络中识别时的中间层对点火的贡献率小的上述传感器数据的上述选择规则。
可以经由通信网络从一个以上的传感器收集上述传感器数据。
根据本发明,能够提供一种评价输入到机器学习装置中的多个传感器数据的贡献率并能够将传感器结构最优化的信息处理装置。
附图说明
图1是表示本发明实施方式1的信息处理装置的硬件结构的框图。
图2是图1的信息处理装置的概略功能框图。
图3是表示图2所示的信息处理装置中的机器学习装置的一个方式的结构的框图。
图4A是说明神经元的图。
图4B是说明神经网络的图。
图5是表示图2所示的信息处理装置的动作流程的流程图。
图6说明将实施方式1的信息处理装置应用于工件的划痕检查的例子。
图7说明将实施方式1的信息处理装置应用于电动机的异常检测的例子。
图8是表示图2所示的信息处理装置的动作的流程图。
具体实施方式
首先,说明本发明的实施方式1的信息处理装置。
图1是表示本发明实施方式1的信息处理装置100的硬件结构的框图。
CPU11是整体控制信息处理装置100的处理器。CPU11经由总线20读出存储在ROM12中的系统程序,并按照该系统程序来控制信息处理装置100整体。RAM13中临时存储暂时的计算数据和显示数据以及从外部输入的各种数据等。
非易失性存储器14构成为,例如通过未图示的电池进行后备供电等,即使信息处理装置100的电源被切断也能保持存储状态的存储器,存储经由未图示的接口输入的各种程序和数据。存储在非易失性存储器14中的程序和数据在执行时/使用时被展开到RAM13。另外,在ROM12中预先写入各种系统程序。
传感器数据60是由测量环境的各种状态的传感器输出的测量值(传感器数据)。例如,温度传感器、位移传感器、压力传感器、电流传感器、速度传感器、加速度传感器、摄像机、亮度传感器、麦克风、气味传感器、长度测量器等输出传感器数据60。在本实施方式中,假定存在多个传感器,多个传感器输出分别不同种类的传感器数据。例如传感器数据60可以是麦克风输出的声音数据、加速度传感器输出的加速度数据、拍摄工件上表面的图像的摄像机输出的图像数据、拍摄工件侧面的图像的摄像机输出的图像数据的组合。信息处理装置100经由接口18接收传感器数据60,并传输给CPU11。
判定数据70是在机器学习中与传感器数据60关联学习的数据。例如在生成使用传感器数据60进行电动机的异常检测的机器学习模型时,当传感器数据60被输入到接口18时,将表示电动机的正常或异常的数据作为判定数据70输入给接口19。例如,当作业人员识别电动机的正常或异常并将其结果输入给键盘时,信息处理装置100经由接口19接收来自键盘的输出数据作为判定数据70,并传输给CPU11。
接口21是用于连接信息处理装置100和机器学习装置300的接口。机器学习装置300具备统一控制机器学习装置300整体的处理器301、存储系统程序等的ROM302、用于进行机器学习相关的各个处理中的暂时存储的RAM303以及学习模型等的存储所使用的非易失性存储器304。机器学习装置300能够观测经由接口21通过信息处理装置100能够取得的各种传感器数据。另外,机器学习装置300的处理器和ROM可以是和信息处理装置100相同的部件。进一步,处理器可以保持GPU和FPGA,成为进行处理高速化的结构。
图2是信息处理装置100的概略功能框图。信息处理装置100具有机器学习装置300、输入数据选择部110、期待性能设定部120、性能评价部130以及输入数据控制部140。
信息处理装置100所具备的机器学习装置300包括用于通过所谓机器学习自主学习传感器数据60与判定数据70之间的相关关系的软件(学习算法等)以及硬件(处理器301等)。该机器学习装置300所学习的内容相当于表示传感器数据60与判定数据70之间的相关性的模型结构。
机器学习装置300具备将传感器数据60作为表示环境的当前状态的状态变量S进行观测的状态观测部306、将判定数据70作为判定数据D而取得的判定数据取得部308以及使用状态变量S和判定数据D将传感器数据60与判定数据70关联地进行学习的学习部310。
状态观测部306可以构成为处理器301的一个功能,也可以构成为用于使处理器301发挥功能的ROM302所存储的软件。另外,判定数据取得部308可以构成为处理器301的一个功能,也可以构成为用于使处理器301发挥功能的ROM302所存储的软件。
学习部310可以构成为处理器301的一个功能,也可以构成为用于使处理器301发挥功能的ROM302中所存储的软件。该学习部310按照被总称为机器学习的任意学习算法来学习传感器数据60与判定数据70之间的相关关系。学习部310能够反复执行基于包括上述状态变量S和判定数据D的数据集合的学习。
通过重复这样的学习循环,学习部310可以自动识别暗示传感器数据60与判定数据70之间的相关性的特征。在学习算法开始时,传感器数据60与判定数据70之间的相关性实质上是未知的,但是学习部310随着学习的推进慢慢识别特征并解释相关性。传感器数据60与判定数据70之间的相关性如果被解释到某种程度能够信赖的水平,则学习部310反复输出的学习结果能够用于针对当前状态(传感器数据60)推定判定数据70应该成为怎样的数据。即学习部310随着学习算法的推进,能够使传感器数据60与判定数据70之间的相关性慢慢地接近最佳解。
如上所述,信息处理装置100所具备的机器学习装置300使用状态观测部306观测到的状态变量S和判定数据取得部308取得的判定数据D,由学习部310按照机器学习算法来学习传感器数据60与判定数据70之间的相关性。状态变量S由难以受到干扰的影响的数据构成,另外判定数据D被唯一地求出。因此,根据信息处理装置100所具备的机器学习装置300,通过使用学习部310的学习结果,能够不依靠运算或估算来自动且准确地求出与传感器数据60对应的判定数据70。
在具有上述结构的机器学习装置300中,不特别限定学习部310所执行的学习算法而能够采用公知的学习算法作为机器学习。
图3是图2所示的信息处理装置100中的机器学习装置300的一个方式,表示具备作为学习算法的一例而执行有监督学习的学习部310的结构。
有监督学习是预先大量地赋予输入和与其对应的输出的已知数据集(称为训练数据),根据这些训练数据识别暗示出输入和输出之间的相关性的特征,由此学习用于推定针对新的输入的所需要的输出(与传感器数据60对应的判定数据70)的相关性模型的方法。
在图3所示的机器学习装置300中,学习部310具备计算从状态变量S导出判定数据70的相关性模型M与从预先准备的训练数据T识别出的相关性特征之间的误差E的误差计算部311、为了缩小误差E而更新相关性模型M的模型更新部312。学习部310通过由模型更新部312重复相关性模型M的更新来学习传感器数据60与判定数据70之间的相关关系。
相关性模型M能够通过回归分析、强化学习、深层学习等来构建。相关性模型M的初始值,例如作为将状态变量S与判定数据D之间的相关性简化表现的值,在有监督学习开始前被赋予学习部310。训练数据T例如能够由通过记录过去的传感器数据60与判定数据70之间的对应关系而累积的经验值(传感器数据60与判定数据70的已知数据集)来构成,在有监督学习开始前被赋予学习部310。误差计算部311根据被赋予学习部310的大量训练数据T来识别暗示传感器数据60与判定数据70之间的相关性的相关性特征,求出该相关性特征与当前状态的状态变量S所对应的相关性模型M之间的误差E。模型更新部312例如按照预先决定好的更新规则来向误差E变小的方向更新相关性模型M。
在接下来的学习循环中,误差计算部311使用通过按照更新后相关性模型M使机床等动作等而得到的状态变量S以及判定数据D,求出与这些状态变量S以及判定数据D对应的相关性模型M相关的误差E,模型更新部312再次更新相关性模型M。这样,未知环境的当前状态(传感器数据60)和与其对应的状态(判定数据70)之间的相关性慢慢变得明确。即,通过相关性模型M的更新,传感器数据60与判定数据70之间的关系慢慢接近最佳解。
在推进上述有监督学习时,例如能够使用神经网络。图4A示意地表示神经元的模型。图4B示意地表示组合图4A所示的神经元而构成的三层神经网络的模型。神经网络例如可以由模拟了神经元的模型的运算装置和存储装置等构成。
图4A所示的神经元输出针对多个输入x(这里作为一例为输入x1~输入x3)的结果y。对各个输入x1~x3乘以与该输入x对应的权重w(w1~w3)。由此,神经元输出通过以下式(1)表现的结果y。另外,在式(1)中,输入x、结果y以及权重w都是向量。另外,θ是偏置,fk是激活函数。
Figure GDA0002728110570000071
图4B所示的三层神经网络从左侧输入多个输入x(这里作为一例为输入x1~输入x3),从右侧输出结果y(这里作为一例为结果y1~y3)。在图示的例子中,对输入x1、x2、x3分别乘以对应的权重(用w1统称表示),将各个输入x1、x2、x3都输入到3个神经元N11、N12、N13。
在图4B中,用z1统称表示神经元N11~N13各自的输出。z1能够视为提取出输入向量的特征量而得的特征向量。在图示的例子中,对特征向量z1的要素分别乘以对应的权重(用w2统称表示),将特征向量z1的各个要素都输入到2个神经元N21、N22。特征向量z1表示权重w1与权重w2之间的特征。
在图4B中,用z2统称表示神经元N21~N22各自的输出。z2能够视为提取出特征向量z1的特征量而得的特征向量。在图示的例子中,对特征向量z2的各个要素乘以对应的权重(用w3统称表示),将特征向量z2的各个要素都输入到3个神经元N31、N32、N33。特征向量z2表示权重w2与权重w3之间的特征。最后,神经元N31~N33分别输出结果y1~y3。
机器学习装置300将状态变量S作为输入x,由学习部310进行按照上述神经网络的多层构造的运算,由此能够将判定数据70作为推定值(结果y)来输出。另外,神经网络的动作模式中有学习模式和判定模式,例如能够在学习模式中使用学习数据集学习权重w,能够使用学习后的权重w在判定模式中进行形状数据的判定。另外,在判定模式中也能够进行检测、分类、推断等。
再次使用图2说明信息处理装置100的其他结构要素。输入数据选择部110、期待性能设定部120、性能评价部130、输入数据控制部140是本发明所特有的结构要素,进行用于评价多个传感器数据各自的贡献率的处理。
期待性能设定部120保持机器学习装置300所要求的期待性能的设定。期待性能设定部120可以具备用于用户输入期待性能的设定的用户界面和用于保持设定内容的存储区域。期待性能能够使用能够客观评价的各种指标等来设定。作为典型的期待性能,有知识率、召回率、准确率、F值。知识率指关于实际的现象是否是A,机器学习装置300正确判定出的事例的比例。召回率指机器学习装置300输出了A的回答的事例的数量相对于实际现象为A的事例的数量的比例。准确率指实际现象为A的事例的数量相对于机器学习装置300输出了A的回答的事例的数量的比例。F值指准确率与召回率的调和平均。例如,可以将召回率为99.99%以上的情况、准确率为99%以上的情况设定为期待性能。
期待性能也能够通过其他各种指标来定义。例如用于实现传感器结构的成本也是重要的性能指标。成本中除了金钱成本以外也包括取得传感器数据的劳力和时间等。例如传感器本体的价格、传感器设置的难易度、取得传感器数据所花费的测量时间等也是成本的构成要素。使用这些构成要素,例如除了召回率以及准确率为预定阈值以上的情况之外,也可以将考虑了传感器本体的成本和图像的取得成本等而得的总成本为最小的情况设定为期待性能。此时,首先定义用于评价总成本的评价式。例如是输出总成本越小则越被视为高评价的评价值的评价式。然后,能够将评价值为预定阈值以上的情况设定为期待性能。或者也可以将评价值在与其他传感器结构的比较中为最高的情况设定为期待性能。例如,将在使用了高分辨率摄像机(传感器本体的价格比较高,图像处理所需要的时间和负荷大)所输出的传感器数据时为+20、在使用了低分辨率摄像机(传感器本体的价格比较低,图像处理所需要的时间和负荷小)所输出的传感器数据时为+10、按照每拍摄一张(产生图像处理的时间和负荷)+1的权重的累积加法值作为评价值,能够将该评价值最小的情况设定为期待性能。
输入数据控制部140决定输入到机器学习装置300中的传感器数据的选择规则,并将决定好的选择规则赋予输入数据选择部110。该输入数据控制部140可以具备预先保持几个代表性的选择规则且用于用户从其中采用希望的选择规则的用户界面。选择规则是指从输入到信息处理装置100的n种传感器数据60中选择m(m≤n)种传感器数据,并生成多个不同组合时的规则。最简单的选择规则是随机决定传感器数据的组合的规则。此时,可以根据后述的性能评价的结果,使用遗传算法来进行组合最优化。另外,当机器学习装置300的学习部310通过神经网络构成时,例如可以一次使用全部的传感器数据来进行学习后,评价从输入层到接下来的中间层的耦合系数,优先排除其耦合系数的和较小的输入数据,生成传感器数据的组合。另外,可以同样在一次使用全部的传感器数据来进行学习后,使用测试用的传感器数据来尝试通过神经网络进行的识别,并优先排除此时的中间层对点火的贡献率小的输入数据,生成传感器数据的组合。
输入数据选择部110按照输入数据控制部140所决定的选择规则来决定传感器数据的组合,按每个组合执行机器学习。例如如果选择规则是随机的,则输入数据选择部110根据输入到信息处理装置100中的n种传感器数据60来定义多个由m(m≤n)种传感器数据组成的独特组合。输入数据选择部110从输入到信息处理装置100中的传感器数据60中按照所定义的组合提取传感器数据,并输入给机器学习装置300。
机器学习装置300将所输入的传感器数据作为状态变量S来使用并进行学习,构建学习模型。输入数据选择部110对所定义的多个组合的全部依次执行该学习过程,构建与每一个组合对应的学习模型。输入数据选择部110如果将传感器数据的组合定义了p个,则得到p个学习结果。
性能评价部130分别评价根据输入数据选择部110所定义的传感器数据的组合而得到的学习结果。评价将是否达到在期待性能设定部120中设定的期待性能作为内容。具体地说,作为学习器的机器学习装置300如果得到充分数量的学习数据并结束了学习过程后,则性能评价部130将测试数据(测试用的传感器数据)输入给作为识别器的机器学习装置300。性能评价部130参照上述期待性能来评价机器学习装置300所输出的识别结果。例如在期待性能设定部120中定义期待性能为知识率99%以上,且性能评价部130将100个测试数据输入给机器学习装置300时,性能评价部130判定是否关于99个以上的测试数据得到了正确解答,如果得到了正确解答则判断为满足期待性能。性能评价部130对输入数据选择部110所定义的传感器数据的所有组合进行这样的性能评价。如果定义了p个传感器数据的组合,则对所有p个学习结果分别进行性能评价。
性能评价部130输出性能评价的结果。例如,可以自动选择满足期待性能的传感器数据的组合中评价最优秀的组合并输出。当有多个满足了期待性能的传感器数据的组合时,也可以具备将它们提示给用户并让用户选择任意一个的用户界面。
使用图5的流程图来说明图2所示的信息处理装置100的动作。
步骤S1:期待性能设定部120设定机器学习装置300所要求的期待性能。
步骤S2:输入数据控制部140设定传感器数据的选择规则。
步骤S3:输入数据选择部110按照在步骤S2设定的选择规则来决定传感器数据的组合,并输入给机器学习装置300。机器学习装置300使用该输入的传感器数据的组合进行学习。
另外,当存在多个适合选择规则的传感器数据的组合时,对所有的组合按顺序执行步骤S3的学习。
步骤S4:性能评价部130使用测试数据,根据在步骤S1设定的期待吸能来评价在步骤S3进行了学习的机器学习装置300的性能。
另外,在步骤S3中使用多个传感器数据的组合进行了学习时,对与这些传感器数据的组合对应的所有学习模型按顺序执行步骤S4的性能评价。
性能评价部130输出性能评价的结果为判定为适合期待性能的传感器数据的组合。
根据本实施方式,按照输入数据控制部140所设定的选择规则,由输入数据选择部110定义多个传感器数据的组合,按照每个组合尝试基于机器学习装置300的机器学习。性能评价部130输出按照每个传感器数据的组合而得到的学习结果中满足由期待性能设定部120所设定的期待性能的组合。性能评价部130所输出的传感器数据的组合由比最初输入到信息处理装置100的传感器数据的种类数更少的传感器数据的种类数构成。因此,今后当在机床等的控制及其周边使用机器学习装置300时,如果输入由性能评价部130所输出的传感器数据的组合,则不仅能够削减传感器本体和传感器数据的取得所需要的金钱成本等,也能够抑制数据的测量、取得以及处理花费的时间和负荷等,并能够高速地输出结果。
这里,参照图6说明将实施方式1的信息处理装置100应用于工件的划痕检查的例子。
作为信息处理装置100的机器人控制装置40控制机器人41、摄像机42(高分辨率摄像机以及低分辨率摄像机)以及照明设备43。机器人41通过手44把持工件45,使工件45在各个方向旋转。根据机器人控制装置40的指令来选择高分辨率摄像机或低分辨率摄像机,从各个方向拍摄工件45。照明设备43在摄像时根据机器人控制装置40的指令来照亮工件45。在该应用例中,假定摄像机42为高分辨率摄像机以及低分辨率摄像机2种,照明设备43为有和无2种,针对摄像机42的工件45的把持姿势有100个候补。
该图6的应用例中的信息处理装置100中的机器学习装置300将摄像机拍摄到的图像数据作为传感器数据60来使用,将表示有无划痕的数据作为判定数据70来使用,进行有监督学习。在学习过程中,赋予在各种摄像条件下拍摄预先知道有无划痕的工件而得的各种张数的图像组合。
首先,在期待性能设定部120中设定期待性能。在本实施例中,将召回率为99.99%以上的情况、准确率为99%以上的情况以及通过用于评价成本性能的独立评价式评价值为最优的情况设定为期待性能。根据该期待性能,能够得到召回率以及准确率满足要件且成本性能最优的摄像条件的组合。用于评价成本性能的评价式计算在使用高分辨率摄像机摄像时为+20、在使用低分辨率摄像机摄像时为+10、拍摄张数每一张为+1的权重的和。该评价式表示计算值(权重的总和)越小成本性能越优越。
接着,在输入数据控制部140中设定传感器数据的组合的选择规则。在本应用例中,随机选择摄像条件的组合(摄像机42的分辨率的高低、有无照明设备43、工件45的把持姿势的种类和数量)。
接着,输入数据选择部110随机决定摄像条件的组合(摄像机42的分辨率的高低、有无照明设备43、工件45的把持姿势的种类和数量)。输入数据选择部110通过决定好的摄像条件的组合来拍摄各种工件45的图像,将该图像数据作为状态变量S,将该工件45有无划痕作为判定数据D,大量输入给作为学习器的机器学习装置300。由此,在该摄像条件的组合中,生成能够根据图像数据推定有无划痕的学习模型。
输入数据选择部110对随机生成的摄像条件的所有组合同样地进行学习。由此,生成随机生成的摄像条件的组合的数量的学习模型。另外,此时不是按照每个摄像条件的组合个别地生成学习模型,而生成一个能够在状态变量S中增加摄像条件的组合识别符等来按摄像条件的组合数量来增加维数的学习模型。采用哪个方法是任意的,但是在本应用例中以采用前者方法的情况来进行说明。另外,可以事先全部拍摄学习以及性能评价所使用的图像数据,根据摄像条件的组合,从所有图像数据中选出要使用的图像数据。
最后,性能评价部130进行所生成的所有学习模型的性能评价。即,对所有的学习模型分别输入大量通过与学习时所赋予的内容相同的摄像条件的组合拍摄到的测试图像,使其输出识别结果(即有无划痕的推定结果)。性能评价部130对照该识别结果和正确答案(有无划痕),计算召回率、准确率以及成本性能(上述评价式的计算值)。性能评价部130如果结束了所有学习模型的召回率、准确率以及成本性能(上述评价式的计算值),则确定召回率是99.99%以上,准确率是99%以上,并且成本性能的评价式的计算值为最小的学习模型。性能评价部130将这样确定的学习模型中的摄像条件的组合作为具有最优性能的摄像条件的组合进行输出。例如,能够输出通过低分辨率摄像机、有照明设备、预定的50个把持姿势进行摄像这样的摄像条件。
假设目前使用由高分辨率摄像机、有照明设备以及无照明设备、100个把持姿势拍摄到的200张图像来识别有无划痕。并且了解到,根据本实施例,通过低分辨率摄像机、有照明设备、预定的50个把持姿势进行拍摄而能够达到预定的识别精度。此时,通过将摄像机42从高分辨率切换为低分辨率,能够节约金钱成本并能够维持同等的识别精度。另外,摄像和图像处理所需要的时间和处理负荷也大幅削减。
接着,参照图7说明将实施方式1的信息处理装置100应用于电动机的异常检测的例子。
作为信息处理装置100的机器人控制装置40控制机器人41。此时,通过指向性麦克风47取得声音数据,另外通过加速度传感器46取得加速度数据,输入给机器人控制装置40。除此之外,机器人控制装置40能够通过未图示的传感器输入电流的干扰值。机器人控制装置40使用该3个传感器来进行基于机器学习的电动机(未图示)的异常检测。
使用麦克风47作为传感器是因为能够期待如果电动机中有异常则会产生声音异常。但是麦克风47在设置位置等方面有许多问题,安装成本(设置的劳力和时间、难易度)高。加速度传感器46被安装在机器人41的臂前端。当使机器人41的臂运动的电动机有异常时,会产生振动,或者能够期待加速度的产生倾向会产生变化。加速度传感器46也会产生一定的安装成本。能够期待电流的干扰值在电动机有异常时会上升。关于电流的干扰值,几乎没有用于测量的成本。
机器学习装置300进行使用了自动编码器的异常值检测。产生异常时的数据与正常时的数据相比,能够取得的件数压倒性地少。因此,对图6所示的工件的划痕检查应用应用例那样的2值分类模型是困难的。
因此,在图7所示的对电动机异常检测的应用例中,在学习阶段,只赋予正常时的数据,通过自动编码器来生成学习模型。自动编码器是进行无监督学习的多层神经网络,能够得到再现输入的输出。自动编码器的输入层与输出层是相同的维数,但是具有在中间层压缩输入来削减维数的结构。自动编码器随着学习的推进,决定尽量缩小输入层与输出层的误差的神经元的权重。如果对只使用正常数据进行了学习的自动编码器输入异常数据,则自动编码器不能够顺利地再现输入并进行输出。即,输入与输出之间的误差变大。通过使用这样的自动编码器的性质,对仅使用正常时的数据进行了学习的自动编码器赋予输入,当输入与输出之间的误差超过了预定的阈值时,能够将输入判定为异常数据。
在图7所示的应用例中,信息处理装置100(机器人控制装置40)输入在正常时通过指向性麦克风取得的声音数据、通过加速度传感器取得的加速度数据、通过未图示的传感器取得的电流干扰值的3个传感器数据中一个以上的传感器数据的组合,生成学习模型。此时,能够针对传感器所输出的原始数据适当实施快速傅里叶变换等预处理。
在该信息处理装置100中,在期待性能设定部120中设定期待性能。在本应用例中,将召回率为99.99%以上的情况、准确率为99%以上的情况以及在用于评价成本性能的独立评价式中评价值为最优的情况设定为期待性能。根据该期待性能,能够得到召回率以及准确率满足要件且成本性能最优的摄像条件的组合。用于评价成本性能的评价式,计算在使用了指向性麦克风47时为+20、在使用了加速度传感器46时为+10、在使用了电流的干扰值时为+0的权重的和。该评价式表示计算值(权重的总和)越小,成本性能越优越。
接着,在输入数据控制部140中设定传感器数据的组合的选择规则。在本实施例中,随机选择传感器(指向性麦克风47、加速度传感器46、电流的干扰值)的组合。
接着,输入数据选择部110随机决定摄像条件(指向性麦克风47、加速度传感器46、电流的干扰值)的组合。输入数据选择部110通过决定好的传感器的组合来取得大量传感器数据,并输入给作为学习器的机器学习装置300。这样,生成用于通过该传感器数据的组合进行异常检测的学习模型。输入数据选择部110对所有随机生成的传感器的组合同样地进行学习。
最后,性能评价部130进行所生成的所有学习模型的性能评价。即,对所有的学习模型分别输入大量通过与学习时所赋予的内容相同的传感器的组合取得到的测试数据,输出识别结果(即有无检测出异常)。性能评价部130对照该识别结果和正确答案(是否是异常数据),计算召回率、准确率以及成本性能(上述评价式的计算值)。性能评价部130如果结束了所有学习模型的召回率、准确率以及成本性能(上述评价式的计算值)的计算,则确定召回率是99.99%以上,准确率是99%以上,并且成本性能的评价式的计算值为最小的学习模型。性能评价部130将这样确定的学习模型中的传感器的组合作为具有最优性能的摄像条件的组合进行输出。
根据本应用例,例如在导入线路系统前,能够确定为了异常检测所需要的传感器,所以能够在廉价且稳定的状态下构建实际的线路系统。
接着,说明本发明实施方式2的信息处理装置。
在上述实施方式1信息处理装置1中,按照输入数据控制部140所设定的选择规则,输入数据选择部110定义多个传感器数据的组合,并对组合分别进行机器学习装置300的机器学习。
对此,在该实施方式2的信息处理装置中,输入数据控制部140进一步使神经网络的中间层结构也发生变化。即,能够使神经网络的超参数发生变化。输入数据控制部140针对神经网络的超参数的设定规则预先保持多个候补。然后,输入数据控制部140对输入数据选择部110指定应该使用的神经网络的超参数的设定规则。
输入数据选择部110按照所指定的超参数的指定规则来变更机器学习装置300的超参数。之后,执行上述实施方式1所示的学习过程。
最典型的超参数的设定规则是随机地设定超参数。可以如在实施方式1中对传感器数据的组合进行的那样,使用遗传算法来进行组合最优化。此时,如图8的流程图所示,输入数据选择部110针对由随机选择出的神经网络的超参数构成的学习器分别依次执行实施方式1所示的学习过程。性能评价部130也针对由该超参数构成的识别器分别依次执行实施方式1所示的性能评价过程。
根据该实施方式2的信息处理装置,不仅能够确定最优的传感器数据的组合,也能够确定最优的神经网络的超参数。这样,能够将传感器数据的组合更加优化。有时即使全部赋予本来需要的传感器数据,也会由于神经网络的设计不好而得不到充分的识别结果。即使这种情况下,如果通过本实施方式,神经网络的结构也穷举地发生变化,则搜索空间变大,能够发现最优的传感器数据的组合。
以上,说明了本发明的信息处理装置的2个实施方式,但是本发明不仅限于上述实施方式,能够通过加以适当的变更以各种方式来实施。
例如在上述实施方式1、2中,以信息处理装置100作为机器人控制装置等一个装置来实现,从机器人等一个控制对象取得传感器数据的例子为主进行了说明。但是,本发明不限于此。例如信息处理装置100可以被设置在通用的通信网络和工厂内网络等专用通信网络上,经由该通信网络从控制对象取得传感器数据。信息处理装置100可以是1台计算机,也可以由多台计算机进行分散处理来实现。学习或测试用的传感器数据可以从一个控制对象取得,也可以从同种的多个控制对象取得。学习或测试用的传感器数据可以使用实时收集到的数据,也可以使用将收集到的数据累积到预定存储区域中而得的数据。
另外,在上述实施方式1、2中,在信息处理装置100中,输入数据选择部110对所有的传感器数据的组合执行学习过程,之后,性能评价部130执行得到的所有学习模型的性能评价过程。但是,例如如果输入数据选择部110对一个传感器数据的组合执行了学习过程,则之后性能评价部130可以执行该学习模型的性能评价过程。即,由输入数据选择部110进行的学习和与此连续的性能评价部130的性能评价组成的处理过程被反复传感器数据的组合的数量。此时,例如在性能评价部130中如果发现发挥良好性能的选择规则,则在该时间点可以中断反复处理。

Claims (9)

1.一种信息处理装置,其具有机器学习装置,向该机器学习装置输入测定环境的各种状态的传感器所输出的测定值即多个传感器数据来进行机器学习,其特征在于,
上述信息处理装置是控制机器人的机器人控制装置,
上述多个传感器构成为被上述机器人控制装置控制,
上述机器人控制装置具有:
输入数据控制部,其设定用于生成一个以上的上述传感器数据的组合的选择规则;
输入数据选择部,其按照上述选择规则生成多个上述传感器数据的组合,将上述传感器数据的组合输入给上述机器学习装置,并由上述机器学习装置生成分别与上述传感器数据的组合对应的识别器;
期待性能设定部,其设定上述识别器所要求的期待性能;以及
性能评价部,其按照上述期待性能评价上述识别器的性能,并输出与满足上述期待性能的上述识别器对应的上述传感器数据的组合,
根据上述传感器数据的取得成本来定义上述期待性能,
上述传感器数据的取得成本根据取得上述传感器数据的传感器的价格、上述传感器设置的难易度或者上述传感器数据的取得或处理所需要的时间或处理负荷来进行计算,
上述机器人控制装置构成为除了控制上述机器人以外,控制用于从各个方向对上述机器人的手所把持的工件进行摄影的1个或多个摄像机,
上述输入数据控制部设定上述摄像机的拍摄条件的组合的选择规则,
上述输入数据选择部通过随机选择的摄像条件的组合来拍摄各上述工件的图像,将这些拍摄到的图像的数据作为传感器数据输入至上述机器学习装置,由此在该摄像条件的组合中,生成能够根据图像数据推定有无划痕的学习模型,
上述性能评价部进行上述生成的学习模型的性能评价并从这些学习模型中确定评价优秀的学习模型,输出该确定的学习模型的摄像条件的组合作为具有最优性能的摄像条件的组合。
2.根据权利要求1所述的信息处理装置,其特征在于,
通过上述识别器的知识率、准确率、召回率或F值来定义上述期待性能。
3.根据权利要求1所述的信息处理装置,其特征在于,
上述传感器数据与温度、位移、压力、电流、速度、加速度、图像、亮度、声音、气味或者长度的至少任意一方有关。
4.根据权利要求1所述的信息处理装置,其特征在于,
上述性能评价部具有提示多个满足上述期待性能的上述传感器数据的组合并使用户选择希望的上述传感器数据的组合的界面。
5.根据权利要求1所述的信息处理装置,其特征在于,
上述识别器通过神经网络来构成。
6.根据权利要求5所述的信息处理装置,其特征在于,
上述输入数据控制部还设定上述神经网络的中间层的结构的设定规则。
7.根据权利要求5所述的信息处理装置,其特征在于,
上述输入数据控制部具有删除在上述神经网络中从输入层到中间层的耦合系数小的上述传感器数据的上述选择规则。
8.根据权利要求5所述的信息处理装置,其特征在于,
上述输入数据控制部具有删除在上述神经网络中识别时的中间层对点火的贡献率小的上述传感器数据的上述选择规则。
9.根据权利要求1所述的信息处理装置,其特征在于,
经由通信网络从一个以上的传感器收集上述传感器数据。
CN201810828164.1A 2017-07-25 2018-07-25 信息处理装置 Active CN109297974B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-143977 2017-07-25
JP2017143977A JP6523379B2 (ja) 2017-07-25 2017-07-25 情報処理装置

Publications (2)

Publication Number Publication Date
CN109297974A CN109297974A (zh) 2019-02-01
CN109297974B true CN109297974B (zh) 2021-03-02

Family

ID=65004382

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810828164.1A Active CN109297974B (zh) 2017-07-25 2018-07-25 信息处理装置

Country Status (4)

Country Link
US (1) US10664754B2 (zh)
JP (1) JP6523379B2 (zh)
CN (1) CN109297974B (zh)
DE (1) DE102018005652A1 (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6898371B2 (ja) * 2019-02-28 2021-07-07 ファナック株式会社 加工条件調整装置及び加工条件調整システム
JP7137761B2 (ja) * 2019-03-06 2022-09-15 オムロン株式会社 センサシステム
JP7208846B2 (ja) * 2019-03-27 2023-01-19 株式会社 日立産業制御ソリューションズ 音響特徴量変換装置、音響特徴量変換方法、および音響特徴量変換プログラム
JP7268509B2 (ja) * 2019-07-09 2023-05-08 株式会社プロテリアル 異常度算出方法、及び、異常度算出用コンピュータプログラム
US11443137B2 (en) 2019-07-31 2022-09-13 Rohde & Schwarz Gmbh & Co. Kg Method and apparatus for detecting signal features
CN110543944B (zh) * 2019-09-11 2022-08-02 北京百度网讯科技有限公司 神经网络结构搜索方法、装置、电子设备和介质
EP3998460B1 (de) 2019-12-16 2023-01-25 Sick Ag Gebervorrichtung und verfahren zur bestimmung einer kinematischen grösse
DE102020101490A1 (de) 2020-01-22 2021-07-22 Endress+Hauser Conducta Gmbh+Co. Kg Sensorsystem und Verfahren
US11237942B2 (en) 2020-03-12 2022-02-01 International Business Machines Corporation Model comparison with unknown metric importance
US11379991B2 (en) * 2020-05-29 2022-07-05 National Technology & Engineering Solutions Of Sandia, Llc Uncertainty-refined image segmentation under domain shift
US11720417B2 (en) 2020-08-06 2023-08-08 Micron Technology, Inc. Distributed inferencing using deep learning accelerators with integrated random access memory
US20220044107A1 (en) * 2020-08-06 2022-02-10 Micron Technology, Inc. Optimized sensor fusion in deep learning accelerator with integrated random access memory
CN112475904B (zh) * 2020-11-12 2021-09-28 安徽江机重型数控机床股份有限公司 一种基于热分析的数控铣镗床加工精度预测方法
CN113059402B (zh) * 2021-03-31 2022-07-12 南昌大学 一种数控铣床铣削颤振智能监测系统
JP7332654B2 (ja) 2021-06-29 2023-08-23 株式会社かんでんエンジニアリング 架空線損傷判定システム
US20230236589A1 (en) 2022-01-27 2023-07-27 Hitachi, Ltd. Optimizing execution of multiple machine learning models over a single edge device
CN114952419B (zh) * 2022-05-11 2023-12-22 深圳吉兰丁智能科技有限公司 一种基于多特征融合的断刀监控方法及电子设备
CN115409133B (zh) * 2022-10-31 2023-02-03 中科航迈数控软件(深圳)有限公司 基于跨模态数据融合的数控机床操作意图识别方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06102217A (ja) * 1992-09-17 1994-04-15 Nok Corp ガス識別方法とガス識別装置
CN105830060A (zh) * 2014-02-06 2016-08-03 富士施乐株式会社 信息处理设备、信息处理程序、存储介质和信息处理方法
CN106844403A (zh) * 2015-12-07 2017-06-13 北京国双科技有限公司 信息处理方法和装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4554420A (en) 1984-05-01 1985-11-19 Westinghouse Electric Corp. Electrical switch
JPH06119291A (ja) * 1992-10-06 1994-04-28 Toshiba Corp 配水量予測装置
JP3279743B2 (ja) * 1993-08-04 2002-04-30 三菱電機株式会社 多層型ニューラルネットワーク構造を有する識別装置
JP2008293178A (ja) * 2007-05-23 2008-12-04 Nippon Telegr & Teleph Corp <Ntt> シーン管理装置及びシーン管理方法ならびにそのプログラム
US9760914B2 (en) * 2009-08-31 2017-09-12 International Business Machines Corporation Determining cost and processing of sensed data
JP6404700B2 (ja) * 2014-12-11 2018-10-10 株式会社Ihi センサ組合せ決定装置及びセンサ組合せ決定方法
JP7006585B2 (ja) * 2016-03-28 2022-01-24 ソニーグループ株式会社 情報処理装置及び情報処理方法
US10733534B2 (en) * 2016-07-15 2020-08-04 Microsoft Technology Licensing, Llc Data evaluation as a service

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06102217A (ja) * 1992-09-17 1994-04-15 Nok Corp ガス識別方法とガス識別装置
CN105830060A (zh) * 2014-02-06 2016-08-03 富士施乐株式会社 信息处理设备、信息处理程序、存储介质和信息处理方法
CN106844403A (zh) * 2015-12-07 2017-06-13 北京国双科技有限公司 信息处理方法和装置

Also Published As

Publication number Publication date
US10664754B2 (en) 2020-05-26
CN109297974A (zh) 2019-02-01
JP2019028515A (ja) 2019-02-21
JP6523379B2 (ja) 2019-05-29
DE102018005652A1 (de) 2019-01-31
US20190034803A1 (en) 2019-01-31

Similar Documents

Publication Publication Date Title
CN109297974B (zh) 信息处理装置
CN109816624B (zh) 外观检查装置
JP6810087B2 (ja) 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
JP6506245B2 (ja) 組付動作を学習する機械学習装置および部品組付システム
CN109382838B (zh) 控制装置以及机器学习装置
CN106393102B (zh) 机器学习装置、机器人系统及机器学习方法
US10835930B2 (en) Sorting system
CN111684474B (zh) 运算装置、运算方法及记录介质
CN109814615B (zh) 控制装置以及机器学习装置
CN109955115B (zh) 切屑去除装置以及信息处理装置
CN109202538B (zh) 热位移修正装置
JP2019030941A (ja) 制御装置及び学習装置
CN110121682A (zh) 发现时间系列中的预兆子序列的方法和系统
US10908572B2 (en) Programmable controller and machine learning device
US10908599B2 (en) Testing device and machine learning device
CN113614743A (zh) 用于操控机器人的方法和设备
CN109308051B (zh) 数值控制装置
Upadhyay et al. Transformer based reinforcement learning for games
CN110895716A (zh) 检查装置以及机器学习方法
CN110895717A (zh) 检查装置以及机器学习方法
US20190314996A1 (en) Control device and machine learning device
CN113657604A (zh) 用于运行检查台的设备和方法
RU2764873C1 (ru) Способ обнаружения аномалий в инфокоммуникационных системах
JP2021170282A (ja) 学習プログラム、学習方法および情報処理装置
JPWO2022244075A5 (zh)

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant