CN112101513A - 机器学习装置 - Google Patents

机器学习装置 Download PDF

Info

Publication number
CN112101513A
CN112101513A CN202010553059.9A CN202010553059A CN112101513A CN 112101513 A CN112101513 A CN 112101513A CN 202010553059 A CN202010553059 A CN 202010553059A CN 112101513 A CN112101513 A CN 112101513A
Authority
CN
China
Prior art keywords
likelihood
weight
machine learning
category
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010553059.9A
Other languages
English (en)
Inventor
小久保嘉人
末次惠久
足立淳
上田康贵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Publication of CN112101513A publication Critical patent/CN112101513A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Image Analysis (AREA)

Abstract

本发明提高学习模型的反馈效率。实施方式的机器学习装置具备:推断部,基于学习模型,针对学习用的数据所包含的要素,按照对要素进行分类的多个类别中的每个类别,推断表示被分类到该类别的可能性的似然;损失值计算部,基于规定的损失函数和由推断部推断出的每个类别的似然,计算表示似然的错误的程度的损失值;权重计算部,基于按照每个类别计算出的似然中的、应将要素分类为真的第一类别的第一似然与不应将要素分类为真的其它类别的第二似然的比较结果来计算权重;以及机器学习部,基于损失值和权重,使学习模型机器学习。

Description

机器学习装置
技术领域
本发明的实施方式涉及机器学习装置。
背景技术
以往,提出了使用通过机器学习生成的学习模型,对数据所包含的要素进行分类的技术。
而且,提出了使用损失函数对使用了学习模型的分类结果计算损失值,并使用该损失值进行学习模型的学习的技术。近年来,损失值的计算方法具有随着技术的发展而复杂化的趋势。在专利文献1所记载的现有技术中,提出了对每个类别的真值和推断值的似然进行比较来计算损失值,提高反馈效率的技术。
专利文献1:日本特开2015-1968号公报
然而,在现有技术中,未考虑推断值中的似然最高的类别与除此以外的类别之间的关系性,在使用了该关系性的反馈效率的提高中还有进一步的改善的余地。
发明内容
实施方式的机器学习装置例如具备:推断部,基于学习模型,针对学习用的数据所包含的要素,按照对要素进行分类的多个类别中的每个类别,推断表示被分类到该类别的可能性的似然;损失值计算部,基于规定的损失函数和由推断部推断出的每个类别的似然,计算表示似然的错误的程度的损失值;权重计算部,基于按照每个类别计算出的似然中的、应将要素分类为真的第一类别的第一似然与不应将要素分类为真的其它类别的第二似然的比较结果来计算权重;以及机器学习部,基于损失值和权重,使学习模型机器学习。根据该结构,例如,在使学习模型机器学习时,通过不仅将损失值,还将基于第一似然与第二似然的比较结果的权重用于机器学习,从而也考虑不应将要素分类为真的其它类别的似然,所以能够提高反馈效率。
关于实施方式的机器学习装置,例如,权重计算部基于第一似然与其它类别的似然中的最高的第二似然的比较结果来计算权重。根据该结构,例如,能够通过使用其它类别的似然中的最高的第二似然,来提高反馈效率。
关于实施方式的机器学习装置,例如,权重计算部还基于第一似然与第二似然的差分,来计算权重。根据该结构,例如,通过将基于第一似然与第二似然的差分的权重用于机器学习,从而也考虑推断值中的似然最高的类别与除此以外的类别之间的关系性,所以能够提高反馈效率。
关于实施方式的机器学习装置,例如,权重计算部通过将第一似然与第二似然的差分值p以及规定值γ代入至“W=-(1-p)γlog(p)”,来计算权重W。根据该结构,例如,通过根据公式来计算权重,从而随着第一似然与第二似然的差分变小而权重增大,所以能够提高反馈效率。
关于实施方式的机器学习装置,例如,损失值计算部还在第二似然大于第一似然的情况下,将比在第一似然大于第二似然的情况下计算的权重大的值设定为权重。根据该结构,例如,在第二似然大于第一似然的情况下,较大地设定权重,所以能够提高反馈效率。
附图说明
图1是表示实施方式的机器学习装置的硬件结构的一个例子的图。
图2是表示实施方式的机器学习装置的软件结构的框图。
图3是表示实施方式的学习用的图像数据的例子的图。
图4是例示出实施方式的推断部使用学习模型对要素进行分类时的推断方法的图。
图5是表示在实施方式的权重计算部中基于差分值计算的权重的曲线图。
图6是表示由实施方式的机器学习装置执行的处理过程的流程图。
附图标记说明:100…机器学习装置,201…机器学习部,202…数据接受部,203…推断部,204…损失值计算部,205…权重设定部,206…学习用数据存储部。
具体实施方式
以下,公开本发明的例示性的实施方式。以下所示的实施方式的结构、以及由该结构带来的作用、结果及效果是一个例子。本发明也能够通过以下的实施方式中公开的结构以外的结构来实现,并且能够获得基于基本的结构的各种效果、派生效果中的至少之一。
图1是表示机器学习装置100的硬件结构的一个例子的图。如图1所示,机器学习装置100具备处理器101、ROM102、RAM103、输入部104、显示部105、通信I/F106、HDD109。在本例子中,机器学习装置100具有与通常的计算机相同的硬件结构。此外,机器学习装置100所具有的硬件要素并不限于图1所例示出的硬件要素,例如也可以是还具备相机等的方式。
处理器101例如是由CPU、GPU、MPU、ASIC等构成的硬件电路,通过执行程序,统一地控制机器学习装置100的动作,实现机器学习装置100所具有的各种功能。后述机器学习装置100所具有的各种功能。
ROM102是非易失性的存储器,存储包括用于使机器学习装置100启动的程序的各种数据。RAM103是具有处理器101的作业区域的易失性的存储器。
输入部104是用于使用机器学习装置100的用户进行各种操作的设备。输入部104例如由鼠标、键盘、触摸面板或者硬件键构成。
显示部105显示各种信息。显示部105例如由液晶显示器、有机EL(ElectroLuminescence:电致发光)显示器等构成。此外,例如在如触摸面板那样的方式下,也可以输入部104和显示部105一体地构成。通信I/F106是用于与网络连接的接口。HDD(Hard DiskDrive:硬盘驱动器)109储存各种数据。
图2是表示本实施方式的机器学习装置100的软件结构的框图。如图2所示,机器学习装置100通过处理器101执行ROM102或者HDD109中存储的程序,来实现机器学习部201、数据接受部202、推断部203、损失值计算部204以及权重设定部205。另外,学习用数据存储部206储存在HDD109上。
学习用数据存储部206储存有学习用的数据。学习用的数据被用于将该数据所包含的要素(在本实施方式中为像素)分类到每个类别的学习。在学习用的数据中,除了图像数据以外,还包含有表示图像数据所包含的各要素(在本实施方式中为像素)属于哪个类别的信息(以下表示为真值)。
本实施方式对学习用的数据为图像数据的情况进行说明,但也可以是波形等其它数据。另外,本实施方式对成为分类对象的要素为像素的情况进行说明,但也可以是像素以外的要素。
数据接受部202接受学习用数据存储部206中存储的学习用的数据,并且接受通过机器学习部201机器学习了的学习模型210。
学习模型210可以使用任意的学习模型,例如,针对图像解析用,考虑使用学习完毕CNN(Convolutional Neural Network:卷积神经网络)模型。
图3是表示本实施方式的学习用的图像数据的例子的图。图3所示的图像数据为由天空401、路面402、车辆403、人404以及地面405这5个类别构成的例子。作为例子,本实施方式对分类为5个类别的情况进行说明。此外,本实施方式并不限制类别的数量,也可以是4个类别以下,也可以是6个类别以上。
推断部203基于通过机器学习部201机器学习了的学习模型210,针对学习用的数据所包含的各要素,按照用于对要素进行分类的多个类别中的每个类别,计算表示被分类到该类别的可能性的推断似然。
具体而言,本实施方式的推断部203按照学习用的图像数据的每个像素,针对5个类别的每个类别计算推断似然。本实施方式为使用Softmax函数作为分类为多个类别的激活函数的例子。此外,本实施方式并不限制于使用Softmax函数的方法,也可以使用其它的激活函数。Softmax函数是按照每个类别输出其为真的概率(本实施方式的推断似然)的函数。
本实施方式的推断似然为收敛于0~1的范围的值,越接近“1”,表示是该类别的可能性越高。具体而言,若推断似然为“0”,则表示是该类别的可能性为0%,若推断似然为“1”,则表示是该类别的可能性被推断为100%。
图4是例示出本实施方式的推断部203使用学习模型210对要素进行分类时的推断方法的图。如图4所示,推断部203为了对学习用的数据所包含的要素进行分类,作为输入层301,输入多个输入参数。在学习用的数据为图像数据的情况下,作为输入参数,例如,除了成为分类对象的要素(像素)的值以外,也输入该要素周边的像素的值。
如图4所示,在多个中间层302,神经元相互连接。在本实施方式中,根据学习模型210设定各神经元的参数(例如,权重、偏差)。在图4所示的例子中,被输入至输入层301的输入参数经由在多个中间层302相互连接的神经元,输出为存在于输出层303的多个输出参数。本实施方式的输出参数的数量与对要素进行分类的类别的数量一致。换言之,作为输出层303的输出参数,计算每个类别的推断似然。
另外,本实施方式对进行多类别分类的例子进行说明,但并不限制于多类别分类,也可以应用于进行二进制分类的情况。
能够将由本实施方式的推断部203输出的概率向量(推断似然的数组)表示为[类别1,类别2,类别3,类别4,类别5]。例如,在将类别1设为“天空”、将类别2设为“路面”、将类别3设为“车辆”、将类别4设为“人”、将类别5设为“地面”的情况下,存储于学习用数据存储部206的图3的像素411表示“天空”,所以该像素411的真值为[1,0,0,0,0]。
而且,作为像素411的第一推断例,计算出[0.40,0.50,0.05,0.05,0.00]。
在机器学习中,进行基于第一推断例的再次学习。其结果是,作为像素411的第二推断例,计算出[0.40,0.30,0.10,0.10,0.10]。进一步,进行基于第二推断例的再次学习。其结果是,作为像素411的第三推断例,计算出[0.40,0.25,0.20,0.15,0.00]。此外,第一推断例~第三推断例是用于以下所示的说明的一个例子,对于是否由以往的机器学习或者本实施方式计算,并不进行限制。
在第一推断例中,为假的类别2的推断似然比为真的类别1的推断似然大。因此,第一推断例与真值不一致。
另一方面,第二推断例以及第三推断例在为真的类别1的推断似然最大的点与真值一致。然而,对于类别2的推断似然而言,第二推断例为“0.30”,第三推断例为“0.25”。因此,认为与第二推断例相比,第三推断例进行更加适当的分类。
另外,在基于以往的机器学习的损失值的运算、例如交叉熵函数中,仅利用为真的类别的推断似然。换言之,在上述的第一推断例~第三推断例中,仅将类别1的“0.40”用于机器学习用的损失值的运算。换句话说,由于不管是否与真值一致,都以相同的值进行机器学习,所以存在无法进行充分的反馈的问题。另一方面,在利用全部的类别的推断似然来进行机器学习的情况下,存在噪声较大的问题。
因此,本实施方式对损失值进行基于应将要素分类为真的类别的推断似然、以及将要素分类为假的其它类别的推断似然中的最高的推断似然的加权。
损失值计算部204基于规定的损失函数和由推断部203推断出的每个类别的推断似然,来计算表示推断似然的错误的程度的损失值。在本实施方式中,作为规定的损失函数,使用下述的式(1)所示的交叉熵函数,来计算损失值L。此外,变量i为表示类别的数值。因此,由于在本实施方式中是类别为5个的情况,所以变量i=0~4。ti在类别为真的情况下为“1”,在类别为假的情况下为“0”。yi为每个类别(i)的推断似然。
[式1]
Figure BDA0002543285470000061
权重设定部205计算损失值的权重。具体而言,权重设定部205针对各像素(要素),基于按照每个类别计算出的推断似然中的、应将像素(要素)分类为真的类别(真类别)的推断似然与该像素(要素)为假的(不应分类为真的)其它类别(假类别)的推断似然中的最高的推断似然的比较结果,来计算权重W。在本实施方式中,作为比较结果,根据真类别的推断似然与假类别的最高的推断似然的差分来计算权重W。
其中,在假类别的推断似然大于真类别的推断似然的情况下,权重设定部205将规定值设定为权重。规定值根据实施方式设定适当的值即可,但例如设为比在真类别的推断似然大于假类别的最高的推断似然的情况下计算的权重大的值。
具体而言,使用下述的式(2),来计算差分值p。此外,将真类别的推断似然设为Vtarget,将假类别的最高的推断似然设为Vrem_max。
p=max(0.01,Vtarget-Vrem_max)……(2)
根据式(2),在假类别的最高的推断似然大于真类别的推断似然的情况下,差分值p=0.01,在真类别的推断似然大于假类别的最高的推断似然的情况下,差分值p=Vtarget-Vrem_max。
而且,权重设定部205将计算出的差分值p代入至下述的式(3),来计算权重W。此外,关于规定值γ,根据实施方式设定适当的值,例如,考虑分配0~5.0之间的数值。
W=-(1-p)γlog(p)……(3)
图5是表示在权重设定部205中基于差分值p通过式(3)计算的权重W的曲线图。如图5所示,差分值p取0~1之间的值。而且,越接近0,权重W越大。
例如,在第一推断例[0.40,0.50,0.05,0.05,0.00]的情况下,假类别的最高的推断似然大于真类别的推断似然,所以差分值p1=0.01。在该情况下,权重设定部205计算与坐标503对应的权重W3
另一方面,在第二推断例[0.40,0.30,0.10,0.10,0.10]的情况下,差分值p2=0.1。在该情况下,权重设定部205计算与坐标502对应的权重W2。在第三推断例[0.40,0.25,0.20,0.15,0.00]的情况下,差分值p3=0.15。在该情况下,权重设定部205计算与坐标501对应的权重W1
如图5所示,W3>W2>W1。换句话说,在本实施方式中,在假类别的推断似然大于真类别的推断似然的情况下,设定较大的权重W3。而且,在真类别的推断似然大于假类别的最高的推断似然的情况下,如图5所示,以随着推断似然间的差分值增大,权重W变小的方式来设定。换言之,在推断似然间的差分值较小的情况下,设定较大的权重W。由此,能够提高机器学习的效率。
像这样,在本实施方式中,即使真类别的推断似然相同,也根据差分值p计算不同的权重W。
机器学习部201进行基于损失值L和权重W的机器学习,进行向学习模型210的反馈。具体而言,在本实施方式中,作为基于损失值L和权重W的机器学习,代替如以往那样使用损失值L,而使用根据下述的式(4)计算的总损失值LL。此外,用于使用总损失值LL使学习模型210进行机器学习的方法,可以使用与以往相同的方法,从而省略说明。
LL=L×W……(4)
接下来,对本实施方式的机器学习装置100执行的处理过程进行说明。图6是表示由本实施方式的机器学习装置100执行的处理过程的流程图。
本实施方式的机器学习装置100的数据接受部202从学习用数据存储部206接受学习用的数据(图像数据)、以及通过机器学习部201机器学习了的学习模型210(S601)。
接下来,推断部203基于学习模型210,针对学习用的数据的各像素(要素),按照每个类别,计算推断似然(S602)。
然后,损失值计算部204按照每个像素(要素),基于规定的损失函数(例如交叉熵函数)和由推断部203推断出的推断似然,来计算损失值(S603)。
进一步,权重设定部205按照每个像素(要素),基于真类别的推断似然以及假类别的最高的推断似然,来计算损失值的权重(S604)。
然后,机器学习部201通过使用损失值以及权重进行机器学习,来进行向学习模型210的反馈(S605)。
之后,机器学习部201判定机器学习是否结束(S606)。机器学习是否结束的判断基准可以是任意的基准,例如,可以是达到指定的学习次数的情况、学习模型210超过目标精度的情况,也可以是基于全部的学习用的数据的机器学习结束的情况。
机器学习部201在判断为机器学习未结束的情况下(S606:否),再次从S601开始进行处理。另一方面,在判断为机器学习结束的情况下(S606:是),结束处理。
另外,在本实施方式中,通过图6所示的流程图进行了说明,但也可以对使用了学习模型210的机器学习进行并行处理。
本实施方式对作为损失值的计算方法而使用交叉熵函数的例子进行了说明,但也可以使用交叉熵函数以外的损失函数。例如,也可以使用最小平方误差等方法。进一步,并不将用于计算损失值的计算方法限制于仅使用一种方法,也可以组合多种损失值的计算方法。
另外,在使用多种计算方法,按照每个像素(要素)计算多个损失值的情况下,也可以在将要素整体的损失值统合为一个之后,进行机器学习。在这样的情况下,为了统合损失值,考虑使用平均、总和。
在上述的实施方式中,对将假的类别的推断似然中的最高的推断似然与真的类别的推断似然进行比较的例子进行了说明。然而,本实施方式并不将真的类别的推断似然的比较对象限制为假的类别的推断似然中的最高的推断似然,也可以与假的类别的推断似然的平均、第二高的推断似然等进行比较。
在本实施方式中,与进行基于以往的损失值L的机器学习的情况相比,由于设定有基于真类别的推断似然和假类别的最高的推断似然的权重,所以能够提高向学习模型210的反馈效率。
对本发明的几个实施方式进行了说明,但这些实施方式是作为例子而提出的,并不旨在限定发明的范围。这些新的实施方式能够以其它的各种方式来实施,能够在不脱离发明的主旨的范围内,进行各种省略、置换、变更。这些实施方式、其变形被包括于发明的范围、主旨,并且被包括于权利要求书所记载的发明和其等同的范围内。

Claims (5)

1.一种机器学习装置,具备:
推断部,基于学习模型,针对学习用的数据所包含的要素,按照对要素进行分类的多个类别中的每个类别,推断表示被分类到该类别的可能性的似然;
损失值计算部,基于规定的损失函数和由上述推断部推断出的每个类别的似然,计算表示上述似然的错误的程度的损失值;
权重计算部,基于按照每个上述类别计算出的似然中的、应将上述要素分类为真的第一类别的第一似然与不应将上述要素分类为真的其它类别的第二似然的比较结果,来计算权重;以及
机器学习部,基于上述损失值和上述权重,使上述学习模型机器学习。
2.根据权利要求1所述的机器学习装置,其中,
上述权重计算部基于上述第一似然与上述其它类别的似然中的最高的上述第二似然的比较结果,来计算权重。
3.根据权利要求1或2所述的机器学习装置,其中,
上述权重计算部还基于上述第一似然与上述第二似然的差分,来计算上述权重。
4.根据权利要求3所述的机器学习装置,其中,
上述权重计算部通过将上述第一似然与上述第二似然的差分值p以及规定值γ代入至下述式(1),来计算权重W,
W=-(1-p)γlog(p)……(1)。
5.根据权利要求1~4中的任意一项所述的机器学习装置,其中,
上述权重计算部还在上述第二似然大于上述第一似然的情况下,将比在上述第一似然大于上述第二似然的情况下计算的权重大的值设定为权重。
CN202010553059.9A 2019-06-17 2020-06-17 机器学习装置 Pending CN112101513A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019112260A JP2020204909A (ja) 2019-06-17 2019-06-17 機械学習装置
JP2019-112260 2019-06-17

Publications (1)

Publication Number Publication Date
CN112101513A true CN112101513A (zh) 2020-12-18

Family

ID=73746287

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010553059.9A Pending CN112101513A (zh) 2019-06-17 2020-06-17 机器学习装置

Country Status (3)

Country Link
US (1) US20200394563A1 (zh)
JP (1) JP2020204909A (zh)
CN (1) CN112101513A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023092349A1 (en) * 2021-11-24 2023-06-01 Nec Corporation Methods, devices, and medium for communication

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11394774B2 (en) * 2020-02-10 2022-07-19 Subash Sundaresan System and method of certification for incremental training of machine learning models at edge devices in a peer to peer network
WO2021240707A1 (ja) * 2020-05-28 2021-12-02 日本電気株式会社 データ分類システム、データ分類方法および記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023092349A1 (en) * 2021-11-24 2023-06-01 Nec Corporation Methods, devices, and medium for communication

Also Published As

Publication number Publication date
JP2020204909A (ja) 2020-12-24
US20200394563A1 (en) 2020-12-17

Similar Documents

Publication Publication Date Title
CN112101513A (zh) 机器学习装置
US11023806B2 (en) Learning apparatus, identifying apparatus, learning and identifying system, and recording medium
JP6620439B2 (ja) 学習方法、プログラム及び学習装置
CN107529650B (zh) 闭环检测方法、装置及计算机设备
US20170147921A1 (en) Learning apparatus, recording medium, and learning method
US20170337467A1 (en) Security system using a convolutional neural network with pruned filters
JP2021077377A (ja) 物体認識モデルを学習するための方法および装置
JP2016085704A (ja) 情報処理システム、情報処理装置、情報処理方法、及びプログラム
US10853738B1 (en) Inference circuit for improving online learning
US11449734B2 (en) Neural network reduction device, neural network reduction method, and storage medium
CN109840413B (zh) 一种钓鱼网站检测方法及装置
US20020122593A1 (en) Pattern recognition method and apparatus
WO2022082848A1 (zh) 高光谱图像分类方法及相关设备
CN113496247A (zh) 估计生成对抗网络的隐含似然
WO2019102984A1 (ja) 学習装置及び学習方法、識別装置及び識別方法、プログラム並びに記録媒体
JP7172677B2 (ja) 学習方法、学習プログラムおよび学習装置
EP3683734A1 (en) Learning method, learning program, and learning apparatus
JP6977624B2 (ja) 物体検出装置、物体検出方法、およびプログラム
US11715032B2 (en) Training a machine learning model using a batch based active learning approach
US20230086727A1 (en) Method and information processing apparatus that perform transfer learning while suppressing occurrence of catastrophic forgetting
CN115169465A (zh) 变压器数据异常检测方法、装置、设备、介质和产品
JP6184033B2 (ja) 感性評価装置、感性評価方法、およびプログラム
US20210326647A1 (en) Device and method to improve the robustness against 'adversarial examples'
US20240104891A1 (en) Object detection device, learning method, and recording medium
CN113168572A (zh) 分类传感器数据和确定操控执行器的操控信号的方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB02 Change of applicant information

Address after: Aichi Prefecture, Japan

Applicant after: AISIN Co.,Ltd.

Address before: Aichi Prefecture, Japan

Applicant before: AISIN SEIKI Kabushiki Kaisha

CB02 Change of applicant information
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20201218

WD01 Invention patent application deemed withdrawn after publication