CN112534447B - 训练用于控制工程系统的机器学习例程的方法和设备 - Google Patents

训练用于控制工程系统的机器学习例程的方法和设备 Download PDF

Info

Publication number
CN112534447B
CN112534447B CN201980051564.9A CN201980051564A CN112534447B CN 112534447 B CN112534447 B CN 112534447B CN 201980051564 A CN201980051564 A CN 201980051564A CN 112534447 B CN112534447 B CN 112534447B
Authority
CN
China
Prior art keywords
training
training data
data
distribution
pic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980051564.9A
Other languages
English (en)
Other versions
CN112534447A (zh
Inventor
斯特凡·德佩韦格
马库斯·迈克尔·盖佩尔
加比·马夸特
丹尼拉·塞德尔
克里斯托弗·蒂茨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare Diagnostics Inc
Original Assignee
Siemens Healthcare Diagnostics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare Diagnostics Inc filed Critical Siemens Healthcare Diagnostics Inc
Publication of CN112534447A publication Critical patent/CN112534447A/zh
Application granted granted Critical
Publication of CN112534447B publication Critical patent/CN112534447B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

为了训练机器学习例程(BNN),通过机器学习例程(BNN)读取第一训练数据(PIC)的序列。根据第一训练数据(PIC)训练机器学习例程(BNN),其中,通过训练调节机器学习例程(BNN)的多个学习参数(LP)。另外,得出学习参数(LP)的在训练中出现的值分布(VLP),并且根据学习参数(LP)的得出的值分布(VLP)来产生继续消息(CN)。然后,根据继续消息(CN)利用第一训练数据(PIC)的另一序列继续训练,或者对于训练请求其他训练数据(PIC2)。

Description

训练用于控制工程系统的机器学习例程的方法和设备
技术领域
训练用于控制工程系统的机器学习例程的方法和设备。
背景技术
在控制复杂的工程系统、例如医学诊断装置、图像分析装置、机器人、自治系统、风力涡轮机、燃气轮机或制造设施时,越来越多地使用机器学习方法,以便关于预设的标准优化工程系统的能力。在此,尤其能够通过训练过的机器学习例程来控制工程系统的传感器数据的评估。
提供大量已知的学习方法、即例如监督学习方法来训练机器学习例程。在此,尤其能够将要控制的工程系统或类似的工程系统的历史或当前的运行数据或传感器数据用作为训练数据。
因此,例如,在医学诊断仪器中,能够训练机器学习例程以在显微图像上专门对细胞或组织类型进行分类或识别或在断层扫描照片上专门分类和识别肿瘤。对于这样的训练,经常使用大量先前分类过的医学图像,该医学图像作为训练数据输送给机器学习例程。因此,能够训练机器学习例程来尽可能好地复现预设的分类,或者以与预设的分类尽可能小的偏差识别细胞类型、组织类型或肿瘤。与此类似,能够训练用于燃气轮机、制造设施或另一工程系统的机器学习例程来根据传感器数据或其他运行数据识别或分类特定的运行状态和/或以优化的方式控制工程系统。
与此同时,在实践中经常发生,某些要识别的类别比其他识别类别显著更罕见地出现。相应地,相比于对于其他的识别类别的训练数据,对于极其罕见的识别类别通常存在显著更少的训练数据。
但是,刚好在医学领域,正确识别罕见的病理模式或变化通常是重要的。在这种情况下,在评估有足够多的罕见类别训练数据从而也足够可靠地识别该类别之前,会持续非常长时间。
与上述无关,根据预设的训练数据,与其他识别类别相比,会更难于将某些识别类别彼此区分。在这种情况下,经常发生:即使进行持续训练,也不再能够显著地改进识别可靠性。
根据迄今为止的现有技术,经常通过如下方式考虑上述情况:逐步增加训练数据量并且在此观察机器学习例程的成功率。一旦成功率不再显著改进,尤其在罕见识别类别中也是如此的话,则能够结束训练。如果成功率始终保持较低,则这还能够被评价为以下指示:训练所使用的传感器数据不够良好地适于可靠识别。在这种情况下,通常利用其他的传感器数据继续或重复训练。
通过上述处理方式,所需的训练耗费(尤其在存在罕见的识别类别的情况下)会显著增加。
发明内容
发明的目的是提供一种用于训练用于控制工程系统的机器学习例程的方法和设备,该方法和设备允许更有效的训练。
该目的通过具有本发明的特征的方法、通过具有权利要求13的特征的设备、通过具有本发明的特征的计算机程序产品以及通过具有本发明的特征的计算机可读的存储介质来实现。
为了训练用于控制工程系统的机器学习例程,通过机器学习例程读入包括工程系统的第一传感器数据的第一训练数据的序列。在此,该工程系统尤其能够是医学诊断装置、图像分析装置、机器人、自主系统、风力涡轮机、燃气轮机或制造设施。根据第一训练数据来训练机器学习例程,其中,通过训练来调节机器学习例程的多个学习参数。另外,得出学习参数的在训练中出现的值分布,并根据学习参数的得出的值分布来产生继续消息。然后,根据继续消息,利用第一训练数据的另一序列继续训练,或者对于训练请求其他训练数据。
证明了:学习参数的在训练中出现的值分布并且特别是其分布宽度通常是是否能够通过输送其他第一训练数据来改进训练成功与否的早期指标。在后一种情况下,已经能够提早请求质量上不同的训练数据,并用于进一步训练。以该方式,通常能够避免输送不再显著改进训练成效的其他第一训练数据。
通过本发明,能够以有利的方式控制训练,并且尤其控制合适的训练数据的输送,进而通常能够显著地改进或缩短训练。
为了执行根据本发明的方法,提出相应的设备、计算机程序产品以及计算机可读的存储介质。通过根据本发明的方法、根据本发明的设备或根据本发明的计算机程序产品能够例如训练辅助系统的、分析装置的、评估装置的或控制装置的机器学习例程。然后,通过训练过的机器学习例程能够执行工程系统的其他的运行数据或传感器数据的评估、分析、分类或预测。根据此,能够以优化的方式控制工程系统。
能够例如借助于一个或多个处理器、专用集成电路(ASIC)、数字信号处理器(DSP)和/或所谓的“现场可编程门阵列”(FPGA)来执行或实施根据本发明的方法、根据本发明的设备以及根据本发明的计算机程序产品。
本发明的有利的实施方式和改进形式在各个实施例中说明。
根据本发明的一个有利的实施方式,其他训练数据能够具有与第一训练数据不同的类型,能够以与第一训练数据不同的方式被检测,包括与第一传感器数据不同的传感器数据和/或来自与第一训练数据不同的来源。特别地,其他训练数据能够包括更高分辨率,或更细化的传感器数据或包括其他物理或化学变量的测量数据。
此外,根据继续消息,能够驱控传感器或传感器系统,使得修改用于检测训练数据的传感器的传感器参数,促使传感器系统的传感器检测训练数据,和/或选择传感器系统的传感器数据作为训练数据。
根据本发明的一个有利的实施方式,能够得出学习参数的值分布的分布宽度和/或熵值。然后,随着分布宽度的增加和/或熵值的增加,能够优选地以第一训练数据的另一序列继续训练。这是有利的,因为在许多情况下能够将学习参数的值分布的较大的分布宽度或较大的熵值评价为尚未找到学习参数的最佳调节的指示。在这种情况下,通常能够期望通过利用第一训练数据进行进一步训练来改进训练成效。特别地,能够从各个学习参数的值分布、从学习参数的组的值分布或从所有学习参数的值分布来得出相应的分布宽度。
根据本发明的另一有利的实施方式,能够得出学习例程的输出数据的值分布,并且能够根据输出数据的值分布来形成继续消息。
特别地,能够得出输出数据的值分布的分配宽度和/或熵值。随着分布宽度的增加和/或熵值的增加,然后能够优选请求其他训练数据。这是有利的,因为在许多情况下能够将输出数据的值分布的较大的分布宽度或较大的熵值评价为训练过的学习例程只能提供不可靠结果的指示。在这种情况下,通常能够通过切换到质量上不同的训练数据来改进训练成效。
特别地,能够得出学习参数的值分布、或输出数据的值分布的离散度、方差或标准偏差作为分布宽度。
有利地,相应的值分布能够通过在识别类别之上的优选统计高斯分布或分类分布的分布宽度和/或平均值来代表、图示或建模。以该方式,能够节约空间地存储以及有效地处理值分布。
根据本发明的一个有利的改进形式,第一训练数据的训练数据集能够分别与特定的识别类别相关联。优选地,通过存储在相应的训练数据集中的类别数据来实现与识别类别的关联。这种类别数据例如能够将生物细胞的显微图像与作为识别类别的特定的细胞类型相关联。对于相应的识别类别,能够根据与该识别类别相关联的第一训练数据集得出学习参数的类别特定的值分布,根据学习参数的类别特定的值分布来产生类别特定的继续消息,并根据类别特定的继续消息利用与该识别类别相关联的第一训练数据继续进行训练,或者请求与该识别类别相关联的其他训练数据。以此方式,能够类别特定地控制促进训练的训练数据的输送。特别地,能够针对相应的识别类别个体地得出:以另外的第一训练数据进行训练或切换到另外的训练数据预计是否是更有利的。相应地,能够类别特定地选择还要用于相应的识别类别的训练数据。
根据本发明的一个特别有利的实施方式,能够通过机器学习例程借助于贝叶斯神经网络来得出学习参数的值分布,其中,通过贝叶斯神经网络的神经权重来实现学习参数。例如能够借助于马尔可夫链蒙特卡罗方法、拉普拉斯近似和/或推论方法尤其通过参数拟合来得出值的分布。这种贝叶斯神经网络特别适合于对统计分布、特别是学习参数的统计分布建模。
根据本发明的另一实施方式,能够通过机器学习例程实施机器子学习例程的整体,通过该子机器学习例程分别调节学习参数的集。然后,能够从学习参数在学习参数集上的分布推导出学习参数的值分布。
根据本发明的另一实施方式,机器学习例程能够实施神经网络,其中,学习参数是神经网络的神经权重。在此,神经网络的神经结构能够多次变化,其中,为相应的变化得出神经网络的输出数据的集。然后,能够从输出数据在输出数据集上的分布推导出学习参数的值分布。为了变化神经结构,能够以不同的方式、优选随机地断开神经网络的神经元。这种断开通常也称为丢弃。不同的断开相应地引起输出数据的变化。从变化的输出数据的分布中以及从断开的模式中能够推断出学习参数的值分布。
附图说明
下面根据附图更详细地阐述本发明的实施例。在此,分别以示意图示出:
图1示出具有训练过的评估装置的医学诊断仪器,和
图2示出根据本发明的用于训练评估装置的设备。
具体实施方式
图1示例性地示出作为工程系统TS的医学诊断仪器的示意图,该医学诊断仪器具有至少一个传感器S和借助于机器学习方法训练的评估装置AW。后者用于评估传感器S的传感器数据。评估装置AW能够实施为诊断仪器TS的一部分,或者部分地在诊断仪器TS的外部实施。评估装置AW耦联至传感器S和耦联至诊断仪器TS的控制装置CTL。处理器控制或计算机控制的控制装置CTL用于控制诊断仪器TS。
在当前的实施例中,示例性地关注诊断仪器TS,该诊断仪器应当根据生物组织或生物细胞的显微图像照片PIC自动识别组织或细胞的类型或状态和/或相应的病理类别。然后,根据识别,能够通过诊断仪器TS或其控制装置CTL采取其他措施,例如对所拍摄的生物组织或生物细胞进行特定处理或检查,即例如进行药物的施用和/或配量。
相应地,在本实施例中的传感器S优选地被设计为显微镜,该显微镜拍摄生物组织或生物细胞的显微图像PIC并传输至评估装置AW。替代地或附加地,也能够设有其他的成像传感器,例如照相机或成像方法,例如断层摄影或超声检查方法,以便创建二维和/或三维图像照片。
训练过的评估装置AW根据预设的识别类别CL、即例如根据它们的类型、状态或根据其病理类别,对在图像PIC上示出的组织或细胞进行分类。分别在图像PIC上识别的组织或细胞的类别CL通过评估装置AW分别以分类标识符的形式传输至控制装置CTL。如上所述,根据所传输的识别类别CL,通过控制装置CTL控制诊断仪器TS的另外的行为。
替代地或附加地,机器人、自主系统、风力涡轮机、燃气轮机或生产设施作为工程系统TS也能够根据专门训练过的评估装置AW来控制。在此,评估装置AW能够被训练为根据工程系统TS的传感器数据或其他运行数据来识别或分类工程系统TS的特定运行状态和/或借助于控制装置CTL以优化的方式控制工程系统TS。
在此,也将工程系统的控制理解为与控制相关的、即例如有助于控制工程系统的数据和控制信号的输出和使用。这种与控制相关的数据尤其能够包括分类数据、分析数据、预测数据和/或监控数据,这些数据尤其可用于监控工程系统和/或用于识别磨损识别和/或损坏识别。
图2示出根据本发明的用于训练评估装置AW的设备TA的示意图。评估装置AW具有一个或多个用于实施评估装置AW的所有方法步骤的计算机或处理器PROC以及具有一个或多个与处理器PROC耦联的、用于存储要由评估装置AW处理的数据的存储器MEM。
根据多个分类的训练数据集来训练评估装置AW,该训练数据集在当前的实施例中还从耦联至评估装置AW的数据库DB中读取。
从数据库DB中读取显微图像照片PIC作为分类的第一训练数据PIC(CL),其中,分别将识别类别CL与图像照片相关联。在此,相应的识别类别CL例如说明在相应的图像照片PIC上示出的细胞或组织的类型、状态和/或病理类别。相应的识别类别CL的关联能够事先例如通过专家进行。除了图像数据PIC之外,相应的识别类别CL优选以鉴别相关的识别类别CL的类别标识符的形式存储在相关的分类的图像照片PIC(CL)中。图像照片PIC例如能够作为第一传感器数据来自作为成像传感器的显微镜。
另外,评估装置AW还能够耦合至分类的训练数据PIC2(CL)的另一来源SRC。那里可用的训练数据PIC2(CL)包含与第一训练数据PIC(CL)不同的传感器数据PIC2。在其他分类的训练数据PIC2(CL)中,将其他传感器数据同样分别与识别类别CL相关联。
其他传感器数据PIC2能够与第一传感器数据PIC尤其在其类型、其质量、其检测方式方面和/或在进行检测的传感器和/或其传感器设置方面不同。特别地,其他传感器数据PIC2能够包含医学图像照片,该图像照片以更高的图像分辨率、不同的放大、利用不同的显微镜、利用不同的相机和/或在不同的光谱范围中被拍摄。另外,其他传感器数据PIC2还能够包括和量化其他的物理或化学变量。通常,其他传感器数据PIC2应该优选地涉及或包含识别类别CL的与第一传感器数据PIC不同的识别特征或不同的识别方面。
通过评估装置AW能够从训练数据源SRC中尤其识别类别特定地请求其他训练数据PIC2(CL)。训练数据源SRC能够包括另外的数据库、另外的传感器和/或传感器网络。
为了训练评估装置AW,首先通过评估装置AW的选择模块SEL将分类的图像照片PIC(CL)作为第一训练数据的序列读入。选择模块SEL将图像照片PIC传输至评估装置AW的数据驱动的机器学习例程。
在本实施例中,机器学习例程通过与选择模块SEL耦联的贝叶斯神经网络BNN实施。贝叶斯神经网络BNN被设计为卷积神经网络。这种卷积神经网络能够众所周知地有利地用于图像处理和图像模式识别。神经网络BNN或由此实施的机器学习例程能够以数据驱动的方式训练并且具有在训练期间形成的训练结构。通过学习参数LP对神经网络BNN或其训练结构进行参数化,该学习参数通过训练来设置。
在此,训练通常被理解为对参数化的系统模型、例如神经网络的输入参数到一个或多个输出参数、在此为要识别的类别CL的映射进行优化。在训练阶段期间,根据预设的、学习的和/或要学习的标准对该映射进行优化。在分类模型中,尤其能够将分类错误、分析错误和/或预测错误考虑作为标准。另外,能够设有另外的、涉及工程系统TS的控制的标准。训练结构例如能够包括神经网络的神经元的联网结构和/或神经元之间的连接的权重,该连接通过训练形成,使得尽可能良好地满足预设的标准。
学习参数LP是系统模型的要通过训练优化的模型参数,机器学习例程基于该系统模型。在当前的实施例中,学习参数LP通过神经网络BNN的神经连接的权重实现。
通过训练致力于使得神经网络BNN将所输送的图像照片PIC尽可能频繁地利用正确的识别分类CL进行分类。为此目的,通过训练来调节学习参数LP,使得由神经网络BNN对于所输送的图像照片PIC输出的识别类别OCL尽可能良好地复现该图像照片PIC的预设的识别类别CL。例如,这能够通过如下方式实现:将由神经网络BNN的输出层作为输出数据输出的识别类别OCL与预设的识别类别CL比较,该预设的识别类别由选择装置SEL提供。在该比较的范畴内,在输出数据OCL与对此相应的预设的识别类别CL之间形成距离D。距离D在此代表神经网络BNN的分类错误。如图2中通过虚线箭头所表明的那样,距离D被反馈到神经网络BNN。根据反馈的距离D,训练神经网络BNN被训练为将该距离D最小化,即通过输出的识别类别OCL尽可能良好地复现预设的识别类别CL。为此,能够通过标准优化方法变化学习参数LP,直至距离D被最小化。例如,为了最小化能够使用梯度下降法。
此外,通过神经网络BNN得出学习参数LP的在训练中出现的值分布VLP。在得出值分布VLP时,有利地假设学习参数LP根据可能多维的统计高斯分布来分布,并且各个学习参数的分布彼此独立。于是,值分布VLP通过分布宽度(在此为该高斯分布的方差或标准偏差)来代表。网络内部的学习参数LP的这种值分布能够通过贝叶斯神经网络(此处为BNN)借助标准方法有效地建模和得出。替代于或者除了值分布VLP的分布宽度,能够得出值分布VLP的熵值。
证实了能够将学习参数LP的较小的分布宽度评价为学习参数LP已经相对精确调节的指示,即根据第一训练数据PIC(CL)已经尽可能地优化了神经网络BNN。在这种情况下,通过以第一训练数据PIC(CL)进行进一步的训练仅可预期到少量的改进。相反,能够将学习参数LP的更大的分布宽度评价为尚未找到最佳值,并且能够通过以相同类型的训练数据、在此为PIC(CL)进行进一步的训练来改进分类精度的指示。
能够通过以更多相同类型的训练数据进行进一步训练来减少的分类不确定性通常也被称为认知不确定性。
还借助于神经网络BNN得出神经网络BNN的输出数据OCL的值分布VOCL。在得出值分布VOCL时,有利地假设:输出数据OCL根据可能多维的统计高斯分布或分类分布而分布在识别类别之上,并且各个输出数据的分布彼此独立。然后,值分布VOCL通过分布宽度(在此为高斯分布或分类分布的方差或标准偏差)来代表。替代于或除了分布宽度,也能够得出值分布VOCL的熵值。
证实了能够将输出数据OCL的较大的分布宽度评价为训练过的神经网络BNN仅可执行不确定分类的指示。如果同时学习参数LP的值分布VLP相对较小,这代表训练有素的神经网络BN,则几乎无法预期通过用相同类型的训练数据、在此为PIC(CL)进行进一步训练显著地改进分类质量。但是,在这种情况下,通过以其他训练数据、此处为PIC2(CL)继续进行训练,通常显著地改进了分类质量。
通过以相同类型的训练数据进行进一步训练没有显著改进的这种分类不确定性通常被称为无意识不确定性。例如,在尝试预测随机抛硬币的情况下或在尝试根据不相关的或与分类不关联的传感器数据进行分类时出现无意识不确定性。这种分类无法通过增加(不相关的)训练数据的量来改进。
值分布VLP以及VOCL从神经网络BNN传输至评估装置AW的评价模块EVAL。评价模块EVAL耦联至神经网络BNN,并且用于评价训练进度。评价模块EVAL根据输出数据OCL的值分布VOCL和学习参数LP的值分布VLP量化无意识不确定性以及认知不确定性。取决于此,评价模块EVAL通过以当前的第一训练数据、此处为PIC(CL)进行进一步训练形成关于分类的可预期的改进的量化的改进说明。改进说明例如能够根据分布宽度VLP和VOCL的加权的和来形成。如上面已经提到,改进说明优选形成为,使得其随分布宽度VLP的减小和分布宽度VOCL的增加而下降。
此外,根据改进说明,生成继续消息CN并从评价模块EVAL传输至选择模块SEL。继续消息CN尤其能够包含值分布VLP和VOCL以及改进说明。
通过选择模块SEL,根据接收到的继续消息CN和其中包含的改进说明,为了进一步训练,或者从数据库DB中选择另外的第一训练数据PIC(CL),或者从训练数据源SRC中请求其他训练数据PIC2(CL)。在此,能够预设改进说明的阈值,使得在阈值之上还以第一训练数据PIC(CL)进行训练,并且在阈值之下,请求其他训练数据PIC2(CL)并用于进一步训练。
替代地或附加地,继续消息CN也能够被传输至训练数据源SRC,以便在那里例如促使传感器网络的传感器检测训练数据,修改传感器的调节和/或专门选择传感器数据。
优选地,识别类别特定地、即个体地针对训练数据的相应的识别等级CL执行要用于进一步训练的训练数据的之前描述的选择。在此,为相应的识别类别CL得出识别类别特定的值分布VLP和VOCL,产生识别类别特定的继续消息CN,并且通过选择模块SEL根据识别类别特定的继续消息CN为进一步训练或者从数据库DB中选择其他的第一训练数据PIC(CL)或者从训练数据源SRC中选择相关的识别类别CL的其他训练数据PIC2(CL)。
通过根据本发明的方法,能够有效地控制神经网络BNN或评估装置AW的训练。代替可能在较长时间后才识别到,分类质量对于特定识别类别没有显著改进,已经能够及早地并且类别特定地请求质量上不同的训练数据并且用于进一步训练。因此,通常能够避免:输送尤其对于个别罕见的识别类别没有显著改进分类成效的其他训练数据。借此,通常能够显著缩短训练持续时间和/或显著改进学习成效。

Claims (14)

1.一种用于训练用于控制工程系统(TS)的机器学习例程(BNN)的以计算机执行的方法,其中
a)通过机器学习例程(BNN)读取具有工程系统(TS)的第一传感器数据的第一训练数据(PIC)的序列,
b)根据所述第一训练数据(PIC)训练所述机器学习例程(BNN),其中,通过所述训练调节所述机器学习例程(BNN)的多个学习参数(LP),
c)得出所述学习参数(LP)的在所述训练中出现的值分布(VLP),
d)根据所述学习参数(LP)的所得出的所述值分布(VLP)产生继续消息(CN),并且
e)根据所述继续消息(CN)利用所述第一训练数据(PIC)的另一序列继续所述训练,或者为所述训练请求其他训练数据(PIC2),其中,将所述第一训练数据的训练数据集分别与特定的识别类别(CL)相关联,并且对于相应的识别类别(CL),根据与该识别类别(CL)相关联的所述第一训练数据集:
-得出所述学习参数的类别特定的值分布,
-根据所述学习参数的所述类别特定的值分布,产生类别特定的继续消息,并且
-根据所述类别特定的继续消息,利用与该识别类别相关联的第一训练数据继续所述训练,或者请求与该识别类别(CL)相关联的其他训练数据。
2.根据权利要求1所述的方法,其特征在于,所述其他训练数据(PIC2)
-具有与所述第一训练数据(PIC)不同的类型,
-以与所述第一训练数据(PIC)不同的方式被检测,
-包括与所述第一传感器数据不同的传感器数据,和/或
-来自与所述第一训练数据(PIC)不同的来源。
3.根据权利要求1或2所述的方法,其特征在于,
根据所述继续消息(CN)驱控传感器或传感器系统,从而
-修改用于检测训练数据的所述传感器的传感器参数,
-促使所述传感器系统的传感器检测训练数据,和/或
-选择所述传感器系统的传感器数据作为训练数据。
4.根据权利要求1或2所述的方法,其特征在于,
得出所述学习参数(LP)的所述值分布(VLP)的分布宽度和/或熵值,并且
随着分布宽度的增加和/或熵值的增加,优选地利用所述第一训练数据(PIC)的另一序列继续所述训练。
5.根据权利要求1或2所述的方法,其特征在于,
得出所述学习例程(BNN)的输出数据(OCL)的值分布(VOCL),并且
根据所述输出数据(OCL)的值分布(VOCL)形成所述继续消息(CN)。
6.根据权利要求5所述的方法,其特征在于,得出所述输出数据(OCL)的值分布(VOCL)的分布宽度和/或熵值,并且
随着分布宽度的增加和/或熵值的增加,优选请求所述其他训练数据(PIC2)。
7.根据权利要求1或2所述的方法,其特征在于,由分布宽度代表相应的值分布(VLP、VOCL)。
8.根据权利要求1或2所述的方法,其特征在于,
所述机器学习例程实施人工神经网络、递归神经网络、卷积神经网络、贝叶斯神经网络(BNN)、自编码器、深度学习架构、支持向量机、数据驱动的可训练回归模型、k最近邻分类器、物理模型和/或决策树。
9.根据权利要求1或2所述的方法,其特征在于,
通过所述机器学习例程借助于贝叶斯神经网络(BNN)得出所述学习参数(LP)的所述值分布(VLP),其中,所述学习参数(LP)是贝叶斯神经网络(BNN)的神经权重。
10.根据权利要求1或2所述的方法,其特征在于,
通过所述机器学习例程实施子机器学习例程的整体,通过所述子机器学习例程分别调节所述学习参数的集,并且经由学习参数集从所述学习参数(LP)的分布推导出所述学习参数(LP)的所述值分布(VLP)。
11.根据权利要求1或2所述的方法,其特征在于,
所述机器学习例程实施神经网络,其中,所述学习参数(LP)是所述神经网络的神经权重,
多次变化所述神经网络的神经结构,并且为相应的变化得出所述神经网络的输出数据的集,并且
经由输出数据集从所述输出数据(OCL)的分布推导出所述学习参数(LP)的所述值分布(VLP)。
12.一种用于训练用于控制工程系统(TS)的机器学习例程(BNN)的设备(TA),所述设备设置用于执行根据前述权利要求中任一项所述的方法。
13.一种计算机程序产品,设置用于实施根据权利要求1至11中任一项所述的方法。
14.一种计算机可读的存储介质,具有根据权利要求13所述的计算机程序产品。
CN201980051564.9A 2018-08-03 2019-07-29 训练用于控制工程系统的机器学习例程的方法和设备 Active CN112534447B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18187335.7A EP3605404B1 (de) 2018-08-03 2018-08-03 Verfahren und vorrichtung zum trainieren einer maschinellen lernroutine zum steuern eines technischen systems
EP18187335.7 2018-08-03
PCT/IB2019/056435 WO2020026107A1 (de) 2018-08-03 2019-07-29 Verfahren und vorrichtung zum trainieren einer maschinellen lernroutine zum steuern eines technischen systems

Publications (2)

Publication Number Publication Date
CN112534447A CN112534447A (zh) 2021-03-19
CN112534447B true CN112534447B (zh) 2024-05-24

Family

ID=63144922

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980051564.9A Active CN112534447B (zh) 2018-08-03 2019-07-29 训练用于控制工程系统的机器学习例程的方法和设备

Country Status (6)

Country Link
US (1) US20210201151A1 (zh)
EP (1) EP3605404B1 (zh)
JP (1) JP7438187B2 (zh)
CN (1) CN112534447B (zh)
ES (1) ES2966999T3 (zh)
WO (1) WO2020026107A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023166574A1 (ja) * 2022-03-01 2023-09-07 日本電気株式会社 学習装置、制御装置、学習方法及び記憶媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105531724A (zh) * 2013-08-13 2016-04-27 高通股份有限公司 用于调制神经设备的训练的方法和装置
CN106462797A (zh) * 2014-05-12 2017-02-22 高通股份有限公司 共同特征上的定制分类器
CN106980822A (zh) * 2017-03-14 2017-07-25 北京航空航天大学 一种基于选择性集成学习的旋转机械故障诊断方法
CN107492090A (zh) * 2016-06-09 2017-12-19 西门子保健有限责任公司 根据合成数据利用机器学习的基于图像的肿瘤表型分析

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1388812A1 (en) * 2002-07-04 2004-02-11 Ronald E. Dr. Kates Method for training a learning-capable system
US8386401B2 (en) * 2008-09-10 2013-02-26 Digital Infuzion, Inc. Machine learning methods and systems for identifying patterns in data using a plurality of learning machines wherein the learning machine that optimizes a performance function is selected
JP5335536B2 (ja) * 2009-04-23 2013-11-06 キヤノン株式会社 情報処理装置及び情報処理方法
US10515304B2 (en) * 2015-04-28 2019-12-24 Qualcomm Incorporated Filter specificity as training criterion for neural networks
US20180107926A1 (en) * 2016-10-19 2018-04-19 Samsung Electronics Co., Ltd. Method and apparatus for neural network quantization
US10127659B2 (en) * 2016-11-23 2018-11-13 General Electric Company Deep learning medical systems and methods for image acquisition
JP6704341B2 (ja) * 2016-12-27 2020-06-03 株式会社デンソーアイティーラボラトリ 情報推定装置及び情報推定方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105531724A (zh) * 2013-08-13 2016-04-27 高通股份有限公司 用于调制神经设备的训练的方法和装置
CN106462797A (zh) * 2014-05-12 2017-02-22 高通股份有限公司 共同特征上的定制分类器
CN107492090A (zh) * 2016-06-09 2017-12-19 西门子保健有限责任公司 根据合成数据利用机器学习的基于图像的肿瘤表型分析
CN106980822A (zh) * 2017-03-14 2017-07-25 北京航空航天大学 一种基于选择性集成学习的旋转机械故障诊断方法

Also Published As

Publication number Publication date
JP2021533478A (ja) 2021-12-02
WO2020026107A1 (de) 2020-02-06
ES2966999T3 (es) 2024-04-25
US20210201151A1 (en) 2021-07-01
JP7438187B2 (ja) 2024-02-26
CN112534447A (zh) 2021-03-19
EP3605404B1 (de) 2023-10-04
EP3605404A1 (de) 2020-02-05
EP3605404C0 (de) 2023-10-04

Similar Documents

Publication Publication Date Title
JP7074460B2 (ja) 画像検査装置および方法
KR101822404B1 (ko) Dnn 학습을 이용한 세포이상 여부 진단시스템
JP6472621B2 (ja) 分類器構築方法、画像分類方法および画像分類装置
JP2015087903A (ja) 情報処理装置及び情報処理方法
WO2021195688A1 (en) Artificial intelligence (ai) method for cleaning data for training ai models
WO2018150210A1 (en) Evaluating quality of a product such as a semiconductor substrate
JP7150918B2 (ja) 試料の検査のためのアルゴリズムモジュールの自動選択
JP7400449B2 (ja) 解析装置、解析方法、及び解析プログラム
CN112534447B (zh) 训练用于控制工程系统的机器学习例程的方法和设备
US20220147869A1 (en) Training trainable modules using learning data, the labels of which are subject to noise
JP2019076063A (ja) 微細加工構造体を対象とした細胞数計数装置、細胞数計数システム及び細胞数計数方法
JP6422142B1 (ja) 受精卵の画像診断システム、受精卵の画像診断プログラム及び受精卵の画像診断方法。
CN115565018A (zh) 图像分类方法及装置、设备、存储介质
JP2022540171A (ja) 人工ニューラルネットワークのよりロバストなトレーニング
Nazarovs et al. Understanding uncertainty maps in vision with statistical testing
Rosales et al. Oreochromis niloticus growth performance analysis using pixel transformation and pattern recognition
KR20210024871A (ko) 기계학습 모델 관리 시스템과 방법 및 영상 분석 장치
CN116959078B (zh) 疲劳检测模型的构建方法、疲劳检测方法及其装置
JP7441830B2 (ja) 画像評価デバイスを構成するための方法、ならびにまた画像評価方法および画像評価デバイス
US20220327332A1 (en) Method and device for ascertaining a classification and/or a regression result when missing sensor data
KR102613633B1 (ko) 진단 키트의 검사 결과를 판독하는 ai 모델 학습 장치 및 그 동작 방법
EP4202523A1 (en) System, method and computer program for a surgical microscope system and corresponding surgical microscope system
Kumar et al. Object Detection in Medical Diagnosis of Cows Using Convolutional Neural Network
Hemanth et al. Computational Intelligence Techniques for Pattern Recognition in Biomedical Image Processing Applications
Akmam et al. Transfer Learning with Pre-trained CNNs for MRI Brain Tumor Multi-Classification: A Comparative Study of VGG16, VGG19, and Inception Models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant