CN117546185A - 信息处理装置、程序和信息处理方法 - Google Patents
信息处理装置、程序和信息处理方法 Download PDFInfo
- Publication number
- CN117546185A CN117546185A CN202180099756.4A CN202180099756A CN117546185A CN 117546185 A CN117546185 A CN 117546185A CN 202180099756 A CN202180099756 A CN 202180099756A CN 117546185 A CN117546185 A CN 117546185A
- Authority
- CN
- China
- Prior art keywords
- data
- learned
- layer
- relearning
- important
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 43
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000013480 data collection Methods 0.000 claims abstract description 13
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 14
- 238000013500 data storage Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000013136 deep learning model Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 230000001364 causal effect Effects 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
信息处理装置(110)具有:数据收集部(112),其从多个传感器(101)收集传感器数据;判定数据生成部(131),其生成判定批数据,该判定批数据包含已学习数据和与该传感器数据对应的未学习数据,该已学习数据是为了进行用于根据传感器数据进行预测的学习模型的学习而已经使用的学习数据;以及再次学习判定部(132),其针对已学习数据和未学习数据,使用对预测的结果造成影响的协变量计算倾向得分,由此进行将已学习数据和未学习数据分配给多个层的分层,根据该分层的结果,使用重要层的出现频度和重要数据的出现频度判断是否进行学习模型的再次学习。
Description
技术领域
本发明涉及信息处理装置、程序和信息处理方法。
背景技术
近年来,使用机器学习中的学习模型来进行各种预测。
例如,为了进行电车或巴士等公共交通工具的需求预测,研究了基于统计学方法的交通需求预测技术,将其应用于车站的交通拥挤缓解和电车或巴士等车辆运行能力的调整。
作为现有技术,公开了能够根据动态更新的适当的人流预测模型来预测将来的人流数据的交通需求预测装置(例如参照专利文献1)。这里的人流数据是单位时间内通过某个设施的人数。
现有技术文献
专利文献
专利文献1:日本特开2019-040475号公报
发明内容
发明要解决的课题
在现有的交通需求预测装置中,使用基于多元回归模型的人流预测模型这样的学习模型来预测新的人流数据,使用其平均预测精度来判断是否进行学习模型的参数的再次学习。
因此,即使是重要数据,也无法考虑以极端天气或运行事故为代表的出现频度低的场面即稀有场景等的数据。因此,成为判断学习模型的再次学习的条件的数据成为稀有场景等的重要数据少且偏离大的数据。因此,在现有技术中,存在无法在正确的条件下判断学习模型的再次学习条件这样的问题。
因此,本发明的一个或多个方式的目的在于,防止重要数据过度偏离,使得能够在更加正确的条件下判断是否进行学习模型的再次学习。
用于解决课题的手段
本发明的一个方式的信息处理装置的特征在于,该信息处理装置具有:数据收集部,其从多个传感器收集传感器数据;判定数据生成部,其生成判定批数据,该判定批数据包含已学习数据和与所述传感器数据对应的未学习数据,该已学习数据是为了进行用于根据所述传感器数据进行预测的学习模型的学习而已经使用的学习数据;以及再次学习判定部,其针对所述已学习数据和所述未学习数据,使用对所述预测的结果造成影响的协变量计算倾向得分,由此进行将所述已学习数据和所述未学习数据分配给多个层的分层,根据所述分层的结果,使用所述多个层中被判断为重要度高的层即重要层的出现频度、以及所述未学习数据和所述已学习数据中被判断为重要度高的数据即重要数据的出现频度,判断是否进行所述学习模型的再次学习。
本发明的一个方式的程序的特征在于,该程序使计算机作为以下部分发挥功能:数据收集部,其从多个传感器收集传感器数据;判定数据生成部,其生成判定批数据,该判定批数据包含已学习数据和与所述传感器数据对应的未学习数据,该已学习数据是为了进行用于根据所述传感器数据进行预测的学习模型的学习而已经使用的学习数据;以及再次学习判定部,其针对所述已学习数据和所述未学习数据,使用对所述预测的结果造成影响的协变量计算倾向得分,由此进行将所述已学习数据和所述未学习数据分配给多个层的分层,根据所述分层的结果,使用所述多个层中被判断为重要度高的层即重要层的出现频度、以及所述未学习数据和所述已学习数据中被判断为重要度高的数据即重要数据的出现频度,判断是否进行所述学习模型的再次学习。
本发明的一个方式的信息处理方法的特征在于,从多个传感器收集传感器数据,生成判定批数据,该判定批数据包含已学习数据和与所述传感器数据对应的未学习数据,该已学习数据是为了进行用于根据所述传感器数据进行预测的学习模型的学习而已经使用的学习数据,针对所述已学习数据和所述未学习数据,使用对所述预测的结果造成影响的协变量计算倾向得分,由此进行将所述已学习数据和所述未学习数据分配给多个层的分层,根据所述分层的结果,使用所述多个层中被判断为重要度高的层即重要层的出现频度、以及所述未学习数据和所述已学习数据中被判断为重要度高的数据即重要数据的出现频度,判断是否进行所述学习模型的再次学习。
发明效果
根据本发明的一个或多个方式,防止重要数据过度偏离,使得能够在更加正确的条件下判断是否进行学习模型的再次学习。
附图说明
图1是概略地示出信息处理系统的结构的框图。
图2是示出LSTM模型的一例的概略图。
图3的(A)~(C)是用于说明再次学习判定部中的处理的概略图。
图4是用于说明重要层的出现频度的概略图。
图5是用于说明重要数据的出现频度的概略图。
图6是示出信息处理装置的硬件结构例的框图。
图7是示出在信息处理装置中进行预测模型的再次学习时的处理的流程图。
具体实施方式
图1是概略地示出信息处理系统100的结构的框图。
这里,设信息处理系统100是进行电车或巴士等公共交通工具的需求预测的交通需求预测系统来进行说明。
信息处理系统100具有传感器101、输入部102、显示部103和信息处理装置110。
传感器101生成表示与交通需求相关联的外界信息的传感器数据,将该传感器数据发送到信息处理装置110。传感器101的数量没有特别限定,但是,这里,设置有多个传感器101。
输入部102受理针对信息处理装置110的各种指示的输入。输入的指示被送至信息处理装置110。
例如,输入部102受理进行需求预测的日期的输入。
这里,具体而言,输入部102由键盘或鼠标等输入装置构成。
显示部103输出信息处理装置110中的处理结果。
例如,显示部103显示由信息处理装置110进行的将来的交通需求的预测结果。
这里,具体而言,显示部103由液晶显示器等显示装置构成。
信息处理装置110按照来自输入部102的指示,对由从传感器101得到的传感器数据表示的外界信息进行处理,使显示部103显示其处理结果。
例如,信息处理装置110根据由传感器数据表示的外界信息,使用预先学习后的学习模型即预测模型来预测输入到输入部102的日期的交通需求,使显示部103显示其预测结果。在本实施方式中,信息处理装置110作为交通需求预测装置发挥功能。另外,将预测模型称作第1学习模型。
这里,在事先设定了已学习的权重的情况下和事先未设定已学习的权重的情况下,利用不同的方法进行预测模型的学习。
在事先未设定已学习的权重的情况下,利用初始设定的权重对预测模型进行初始化。初始设定的权重例如是指将全部向量设定为0时的权重矩阵。然后,使用从预先取得的传感器数据进行转换后的模型输入数据作为学习数据,进行预测模型的学习。这样学习后的权重被存储于信息处理装置110。
在事先设定了已学习的权重的情况下,利用最近存储的权重对预测模型进行初始化。然后,使用从预先取得的传感器数据进行转换后的模型输入数据作为学习数据,进行预测模型的学习。这样学习后的权重被存储于信息处理装置110。
信息处理装置110具有通信部111、数据收集部112、输入输出接口部(以下称作输入输出I/F部)113、控制部120和存储部150。
通信部111接收来自传感器101的传感器数据。接收到的传感器数据被提供给数据收集部112。
数据收集部112从多个传感器101收集传感器数据。
例如,数据收集部112从通信部111接受传感器数据,将该传感器数据转换为符合预测模型的输入格式的模型输入数据,将该模型输入数据提供给控制部120。
输入输出I/F部113连接输入部102或显示部103。
例如,输入输出I/F部113从输入部102接受表示进行需求预测的日期的日期数据,将该日期数据提供给控制部120。
此外,输入输出I/F部113将从预测数据存储部154输出的预测结果数据转换为显示部103中能够利用的信号数据,将该信号数据输出到显示部103。
控制部120对信息处理装置110中的处理进行控制。
控制部120具有数据生成部130和预测处理部140。
数据生成部130生成用于判定预测模型的再次学习的判定批数据。此外,数据生成部130使用判定批数据判定是否进行预测模型的再次学习。然后,数据生成部130在判定为进行再次学习的情况下,生成用于进行预测模型的再次学习的再次学习批数据。
数据生成部130具有判定数据生成部131、再次学习判定部132和再次学习数据生成部133。
判定数据生成部131生成包含已学习数据和与传感器数据对应的未学习数据的判定批数据,该已学习数据是为了进行预测模型的学习而已经使用的学习数据。这里,未学习数据是从传感器数据进行转换后的模型输入数据。
具体而言,判定数据生成部131生成判定批数据,该判定批数据用于通过从数据收集部112提供的从预测模型的学习中未使用的传感器数据进行转换后的模型输入数据即未学习数据、存储部150中存储的已学习的模型输入数据即已学习数据、以及存储部150中存储的过去的最佳预测模型的权重来判定是否进行预测模型的再次学习。判定批数据被存储于存储部150。
这里,已学习数据的数量固定,例如为过去的预定的期间(例如数周)的重要数据。重要数据是重要度高的数据。
再次学习判定部132读入存储部150中存储的判定批数据,使用过去的最佳模型的参数,分别通过未学习数据和已学习数据实施预测精度的评价。
例如,再次学习判定部132通过模型输入数据中包含的协变量数据,分别对未学习数据和已学习数据进行分层,使用各层的重要度以及分配给各层的未学习数据和已学习数据的重要度双方来判定是否进行再次学习。
这里,再次学习判定部132对已学习数据和与传感器数据对应的未学习数据,使用对预测的结果造成影响的协变量计算倾向得分,由此进行将已学习数据和未学习数据分配给多个层的分层。然后,再次学习判定部132根据该分层的结果,使用该多个层中被判断为重要度高的层即重要层的出现频度、以及未学习数据和已学习数据中被判断为重要度高的数据即重要数据的出现频度,判断是否进行预测模型的再次学习。
下面,对再次学习判定部132的具体的处理例进行说明。
首先,对再次学习判定部132的分层进行说明。
这里,再次学习判定部132使用多项式逻辑模型或线性多元回归模型,通过对引导措施的倾向性进行分析的因果推理技术来计算倾向得分,进行协变量数据的维度削减而进行分层。
具体而言,在存在由于交通事故或极端天气等外界要因而引起的车站或车辆的拥挤度变化时,车站内的工作人员通过车内广播或手动引导等措施来引导人流。再次学习判定部132收集这些引导措施的历史,通过协变量对天气、运行信息或事件信息等协变量数据进行分析,通过梯度提升决策树或多项式逻辑模型来计算引导措施的概率。将通过协变量计算出的引导措施的概率定义为引导措施的倾向得分。倾向得分的值是0与1之间的实数。另外,协变量是在因果关系的分析中,在评价对象的要因以外被观测到的、对该因果关系造成影响的要因。这里,协变量是对交通需求或电车的拥挤度等造成影响的变量。
然后,再次学习判定部132使用引导措施的倾向得分设定各层的阈值,进行未学习数据和已学习数据的分层。例如,倾向得分为0以上且小于0.03的数据被分配给措施概率小的层。倾向得分为0.3以上且小于0.6的数据被分配给措施概率中等的层。倾向得分为0.6以上且1以下的数据被分配给措施概率大的层。
另外,该分层是一例,例如,关于分层的阈值和层的数量,能够通过学习用的实际的实际数据的协变量的平衡来调整。
接着,再次学习判定部132计算分配给各层的未学习数据和已学习数据的平均预测精度,进而,计算分配给各层的未学习数据和已学习数据的预测精度之差。
然后,在存在计算出的平均预测精度为预定的阈值以下的层、或计算出的预测精度之差为预定的阈值以上的层的情况下,再次学习判定部132对这种层赋予重要标签,并且对这种层中包含的全部数据附加重要标签。这里,被赋予了重要标签的层是重要层。此外,被赋予了重要标签的数据是重要数据。
此外,再次学习判定部132判断计算出的平均预测精度比预定的阈值大的层和计算出的预测精度之差比预定的阈值小的层中包含的数据是否是重要数据。使用机器学习中的深度学习模型来进行该判断即可。该深度学习模型是与预测模型不同的学习模型。将深度学习模型称作第2学习模型。该深度学习模型的参数使用事先准备学习数据且已学习的参数。这里,作为重要数据的判断用的深度学习模型的一例,能够使用图2所示的LSTM(Long-Short Term Memory:长短期记忆)模型。该模型的输入是成为时间序列数据的交通需求预测时间序列变化量,该模型的输出成为重要度one-hot向量。
然后,在重要层的出现频度为预定的阈值以上的情况下、或重要数据的出现频度为预定的阈值以上的情况下,再次学习判定部132判断为进行预测模型的再次学习。
图3~图5是用于说明再次学习判定部132中的处理的概略图。
再次学习判定部132读入存储部150中存储的判定批数据,使用过去的最佳模型的参数,分别通过未学习数据D1和已学习数据D2计算倾向得分,进行协变量数据的维度削减而进行分层。
由此,如图3的(A)所示,已学习数据和未学习数据被分配给第1层L1、第2层L2、…。
接着,如图3的(B)所示,再次学习判定部132计算分配给各层L1、L2、…的未学习数据和已学习数据的平均预测精度,进而,计算分配给各层的未学习数据和已学习数据的预测精度之差。
然后,再次学习判定部132使用计算出的平均预测精度和计算出的预测精度之差,关于各个层,附加重要标签或非重要标签。在图3的(C)中,对第1层L1赋予了重要标签,对第2层L2赋予了非重要标签。
再次学习判定部132还对被赋予了重要标签的层中包含的全部数据附加重要标签。然后,再次学习判定部132判断被赋予了非重要标签的层中包含的各个数据是否是重要数据,对判断为重要数据的数据赋予重要标签,对未判断为重要数据的数据赋予非重要标签。将被赋予了非重要标签的层称作非重要层,将被赋予了非重要标签的数据称作非重要数据。
然后,在被赋予了重要标签的层即重要层的出现频度为预定的阈值以上的情况下、或重要数据的出现频度为预定的阈值以上的情况下,再次学习判定部132判断为进行预测模型的再次学习。
例如,如图4所示,在重要层的出现频度成为1/3的情况下,在针对重要层的出现频度的阈值为0.5时,重要层的出现频度不是阈值以上。
另一方面,如图5所示,在重要数据的出现频度成为5/8的情况下,在针对重要数据的出现频度的阈值为0.5时,重要数据的出现频度成为阈值以上。
这种情况下,再次学习判定部132判断为未适当地进行预测模型的学习,需要进行预测模型的权重的再次学习。这里,在重要层的出现频度为阈值以上的情况下,能够判断为重要数据过度偏向某个层,为了防止该偏离,进行预测模型的权重的再次学习。
在图4和图5的例子中,从重要层的出现频度来看,不需要进行预测模型的权重的再次学习,但是,在重要数据的分布中产生偏离,因此,重要数据的出现频度变高。因此,在图5所示的例子中,判断为需要进行预测模型的权重的再次学习。
在再次学习判定部132判定为需要进行再次学习的情况下,再次学习数据生成部133以与各层的数据相同的比例对学习数据和未学习数据进行再次采样,由此生成再次学习批数据,使存储部150存储该再次学习批数据。
预测处理部140使用作为学习模型的预测模型,根据传感器数据进行预测。此外,在再次学习判定部132判断为进行预测模型的再次学习的情况下,预测处理部140进行该预测模型的再次学习。
预测处理部140具有模型权重更新部141、模型权重验证部142和数据预测部143。
模型权重更新部141是如下的再次学习部:读入学习数据存储部152中存储的再次学习批数据,使用该再次学习批数据进行预测模型的再次学习。
例如,模型权重更新部141使用再次学习批数据对模型权重存储部153中存储的预测模型的权重进行更新。
模型权重验证部142判断由模型权重更新部141更新后的权重是否最佳。例如,模型权重验证部142减少更新后的权重的预测误差,因此,在更新后的权重的预测误差比过去的最佳权重的预测误差少的情况下,判断为更新后的权重最佳。
然后,模型权重验证部142在判断为更新后的权重最佳的情况下,将该更新后的权重提供给数据预测部143,在判断为更新后的权重不是最佳的情况下,将过去的最佳权重提供给数据预测部143。
数据预测部143是如下的预测部:使用从模型权重验证部142提供的权重,根据由数据收集部112收集到的传感器数据,预测输入到输入部102的日期的交通需求。然后,数据预测部143使存储部150存储表示该预测结果的预测结果数据。
存储部150存储信息处理装置110中的处理所需要的程序和数据。
存储部150具有判定数据存储部151、学习数据存储部152、模型权重存储部153和预测数据存储部154。
判定数据存储部151存储由判定数据生成部131生成的判定批数据。
学习数据存储部152存储由再次学习数据生成部133生成的再次学习批数据。此外,设在学习数据存储部152中还存储有在预测模型的学习中已经使用的学习数据作为已学习数据。因此,再次学习批数据在预测模型的再次学习中被使用后也成为已学习数据。
模型权重存储部153存储预测模型的权重。
预测数据存储部154存储表示由数据预测部143预测出的预测结果即需求预测的需求预测数据。
以上记载的信息处理装置110能够通过图6所示的计算机15来实现,该计算机15具有易失性或非易失性存储器10、CPU(Central Processing Unit:中央处理单元)等处理器11、HDD(Hard Disk Drive:硬盘驱动器)或SSD(Sorid State Drive:固态驱动器)等辅助存储装置12、NIC(Network Interfece Card:网络接口卡)等通信I/F13以及USB(UniversalSerial Bus:通用串行总线)等连接I/F14。
例如,数据收集部112和控制部120能够通过执行存储器10中存储的程序的处理器11来实现。
存储部150能够通过存储器10或辅助存储装置12来实现。
通信部111能够通过通信I/F13来实现。
输入输出I/F部113能够通过连接I/F14来实现。
另外,以上记载的程序可以通过网络来提供,此外,也可以记录于记录介质来提供。即,这种程序例如也可以作为程序产品来提供。
接着,对信息处理装置110的动作进行说明。
图7是示出在信息处理装置110中进行预测模型的再次学习时的处理的流程图。
首先,再次学习判定部132从判定数据存储部151读入判定批数据(S10)。另外,判定批数据例如以预定的期间(例如数小时)进行一次更新,在判定批数据被更新时,再次学习判定部132判断是否进行预测模型的再次学习。
接着,再次学习判定部132使用基于多项式逻辑模型或线性多元回归模型对措施倾向性进行分析的统计学因果推理技术,使在步骤S10中读出的判定批数据中包含的未学习数据和已学习数据中包含的协变量数据的维数降低一维,进行分层(S11)。此外,再次学习判定部132计算分层后的各层的平均预测精度、以及未学习数据与已学习数据的预测精度的差分。
接着,再次学习判定部132判断是否存在在步骤S11中计算出的平均预测精度为预定的阈值以上的层、或在步骤S11中计算出的预测精度之差为预定的阈值以上的层(S12)。在存在这种层的情况下(S12:是),处理进入步骤S13,在不存在这种层的情况下(S12:否),处理进入步骤S14。
在步骤S13中,对在步骤S11中计算出的平均预测精度为预定的阈值以上的层、和在步骤S11中计算出的预测精度之差为预定的阈值以上的层附加重要标签,并且对这种层中包含的全部数据附加重要标签。
在步骤S14中,对在步骤S11中计算出的平均预测精度小于预定的阈值的层、和在步骤S11中计算出的预测精度之差小于预定的阈值的层附加非重要标签。
接着,再次学习判定部132使用有监督的LSTM模型,判断非重要层中包含的数据是否成为重要数据(S15)。
然后,再次学习判定部132对在步骤S15中判断为重要数据的数据附加重要标签。将被附加了重要标签的数据称作重要数据。
然后,再次学习判定部132判断是否满足重要层的出现频度为预定的阈值(例如0.5)以上的第1条件、和重要数据的出现频度为预定的阈值(例如0.5)以上的第2条件中的至少任意一个条件(S17)。在满足第1条件和第2条件中的至少任意一方的情况下(S17:是),处理进入步骤S18,在不满足第1条件且不满足第2条件的情况下(S17:否),处理结束。
在步骤S18中,再次学习判定部132判断为进行预测模型的再次学习,再次学习数据生成部133生成再次学习批数据,模型权重更新部141根据该再次学习批数据执行预测模型的再次学习。
根据以上记载的实施方式,在判定是否进行预测模型的再次学习的情况下,不仅参考重要数据的出现频度,还参考重要层的出现频度,因此,能够防止重要数据过度偏向一个层。因此,能够在更加正确的条件下判定是否进行预测模型的再次学习。
此外,根据以上记载的实施方式,使用重要数据重点地进行再次学习,因此,能够提高预测模型的学习的收敛度、以及稀有场景数据或拥挤度高的重要数据的预测精度。
进而,能够减少再次学习批数据中的非重要数据的数据量,因此,能够抑制在再次学习中使用的数据量。
标号说明
100:信息处理系统;101:传感器;102:输入部;103:显示部;110:信息处理装置;111:通信部;112:数据收集部;113:输入输出I/F部;120:控制部;130:数据生成部;131:判定数据生成部;132:再次学习判定部;133:再次学习数据生成部;140:预测处理部;141:模型权重更新部;142:模型权重验证部;143:数据预测部;150:存储部;151:判定数据存储部;152:学习数据存储部;153:模型权重存储部;154:预测数据存储部。
Claims (8)
1.一种信息处理装置,其特征在于,该信息处理装置具有:
数据收集部,其从多个传感器收集传感器数据;
判定数据生成部,其生成判定批数据,该判定批数据包含已学习数据和与所述传感器数据对应的未学习数据,该已学习数据是为了进行用于根据所述传感器数据进行预测的学习模型的学习而已经使用的学习数据;以及
再次学习判定部,其针对所述已学习数据和所述未学习数据,使用对所述预测的结果造成影响的协变量计算倾向得分,由此进行将所述已学习数据和所述未学习数据分配给多个层的分层,根据所述分层的结果,使用所述多个层中被判断为重要度高的层即重要层的出现频度、以及所述未学习数据和所述已学习数据中被判断为重要度高的数据即重要数据的出现频度,判断是否进行所述学习模型的再次学习。
2.根据权利要求1所述的信息处理装置,其特征在于,
在所述重要层的出现频度为预定的阈值以上的情况下、或所述重要数据的出现频度为预定的阈值以上的情况下,所述再次学习判定部判断为进行所述学习模型的再次学习。
3.根据权利要求1或2所述的信息处理装置,其特征在于,
所述再次学习判定部将所述多个层中的平均预测精度为预定的阈值以下的层、或所述未学习数据的预测精度与所述已学习数据的预测精度之差为预定的阈值以上的层判断为所述重要层。
4.根据权利要求1~3中的任意一项所述的信息处理装置,其特征在于,
所述再次学习判定部将所述重要层中包含的所述未学习数据和所述已学习数据判断为所述重要数据。
5.根据权利要求1~4中的任意一项所述的信息处理装置,其特征在于,
所述再次学习判定部针对所述多个层中的除了所述重要层以外的层中包含的所述未学习数据和所述已学习数据,使用与作为所述学习模型的第1学习模型不同的第2学习模型来判断是否是所述重要数据。
6.根据权利要求1~5中的任意一项所述的信息处理装置,其特征在于,
所述信息处理装置还具有再次学习部,在所述再次学习判定部判断为进行所述学习模型的再次学习的情况下,该再次学习部进行所述学习模型的再次学习。
7.一种程序,其特征在于,该程序使计算机作为以下部分发挥功能:
数据收集部,其从多个传感器收集传感器数据;
判定数据生成部,其生成判定批数据,该判定批数据包含已学习数据和与所述传感器数据对应的未学习数据,该已学习数据是为了进行用于根据所述传感器数据进行预测的学习模型的学习而已经使用的学习数据;以及
再次学习判定部,其针对所述已学习数据和所述未学习数据,使用对所述预测的结果造成影响的协变量计算倾向得分,由此进行将所述已学习数据和所述未学习数据分配给多个层的分层,根据所述分层的结果,使用所述多个层中被判断为重要度高的层即重要层的出现频度、以及所述未学习数据和所述已学习数据中被判断为重要度高的数据即重要数据的出现频度,判断是否进行所述学习模型的再次学习。
8.一种信息处理方法,其特征在于,
从多个传感器收集传感器数据,
生成判定批数据,该判定批数据包含已学习数据和与所述传感器数据对应的未学习数据,该已学习数据是为了进行用于根据所述传感器数据进行预测的学习模型的学习而已经使用的学习数据,
针对所述已学习数据和所述未学习数据,使用对所述预测的结果造成影响的协变量计算倾向得分,由此进行将所述已学习数据和所述未学习数据分配给多个层的分层,
根据所述分层的结果,使用所述多个层中被判断为重要度高的层即重要层的出现频度、以及所述未学习数据和所述已学习数据中被判断为重要度高的数据即重要数据的出现频度,判断是否进行所述学习模型的再次学习。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/024512 WO2023275976A1 (ja) | 2021-06-29 | 2021-06-29 | 情報処理装置、プログラム及び情報処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117546185A true CN117546185A (zh) | 2024-02-09 |
Family
ID=84691602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180099756.4A Pending CN117546185A (zh) | 2021-06-29 | 2021-06-29 | 信息处理装置、程序和信息处理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240127118A1 (zh) |
EP (1) | EP4343643A4 (zh) |
JP (1) | JP7395066B2 (zh) |
CN (1) | CN117546185A (zh) |
WO (1) | WO2023275976A1 (zh) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6253744B1 (ja) | 2016-11-04 | 2017-12-27 | ヤフー株式会社 | 情報解析装置、情報解析方法、および情報解析プログラム |
JP6761789B2 (ja) | 2017-08-25 | 2020-09-30 | 日本電信電話株式会社 | 人流予測装置、システムおよびプログラム |
US11520835B2 (en) | 2018-09-28 | 2022-12-06 | Rakuten Group, Inc. | Learning system, learning method, and program |
JP7202973B2 (ja) | 2019-05-29 | 2023-01-12 | 株式会社日立製作所 | データ分析装置、データ分析方法、およびデータ分析プログラム |
-
2021
- 2021-06-29 EP EP21948285.8A patent/EP4343643A4/en active Pending
- 2021-06-29 CN CN202180099756.4A patent/CN117546185A/zh active Pending
- 2021-06-29 JP JP2023526466A patent/JP7395066B2/ja active Active
- 2021-06-29 WO PCT/JP2021/024512 patent/WO2023275976A1/ja active Application Filing
-
2023
- 2023-12-22 US US18/394,939 patent/US20240127118A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP7395066B2 (ja) | 2023-12-08 |
EP4343643A1 (en) | 2024-03-27 |
EP4343643A4 (en) | 2024-08-07 |
US20240127118A1 (en) | 2024-04-18 |
WO2023275976A1 (ja) | 2023-01-05 |
JPWO2023275976A1 (zh) | 2023-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110674880B (zh) | 用于知识蒸馏的网络训练方法、装置、介质与电子设备 | |
RU2540830C2 (ru) | Адаптивное дистанционное обслуживание подвижных составов | |
CN113052149B (zh) | 视频摘要生成方法、装置、计算机设备及介质 | |
US20230104214A1 (en) | Method and system for real time trajectory optimization | |
Xue et al. | An instance-based method for remaining useful life estimation for aircraft engines | |
US20200272906A1 (en) | Discriminant model generation device, discriminant model generation method, and discriminant model generation program | |
CN117094535B (zh) | 基于人工智能的能源补给管理方法及系统 | |
JP2000155681A (ja) | 類似事例に基づく予測を行う予測装置および方法 | |
CN112560997A (zh) | 故障识别模型训练方法、故障识别方法及相关装置 | |
CN113283924A (zh) | 需求预测方法以及需求预测装置 | |
JP7481902B2 (ja) | 管理計算機、管理プログラム、及び管理方法 | |
KR101966558B1 (ko) | 장비 재고상태 및 수리부속 조달 요구를 시각화하는 시스템 및 방법 | |
CN116596126A (zh) | 一种公交串车预测方法及系统 | |
CN117390399A (zh) | 基于深度学习的公路预养护方法、系统、电子设备和介质 | |
CN117546185A (zh) | 信息处理装置、程序和信息处理方法 | |
CN105718956A (zh) | 基于支持向量机的超载判断方法 | |
CN116226787A (zh) | 商用车出险概率预测方法、设备和介质 | |
CN117011751A (zh) | 使用变换器网络分割视频图像序列 | |
CN115456073B (zh) | 基于长短期记忆的生成式对抗网络模型建模分析方法 | |
CN114463978A (zh) | 一种基于轨道交通信息处理终端的数据监测方法 | |
CN112232607B (zh) | 一种地铁客流量预测方法及装置 | |
US20210287134A1 (en) | Information processing apparatus, information processing method, and computer program | |
CN114742644A (zh) | 训练多场景风控系统、预测业务对象风险的方法和装置 | |
CN113447037A (zh) | 行程偏航检测方法及装置 | |
CN115185649A (zh) | 资源调度的方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |