CN101501711A - 用于信号识别装置的学习数据集的优化方法以及能够优化学习数据集的信号识别装置 - Google Patents
用于信号识别装置的学习数据集的优化方法以及能够优化学习数据集的信号识别装置 Download PDFInfo
- Publication number
- CN101501711A CN101501711A CNA200780028919XA CN200780028919A CN101501711A CN 101501711 A CN101501711 A CN 101501711A CN A200780028919X A CNA200780028919X A CN A200780028919XA CN 200780028919 A CN200780028919 A CN 200780028919A CN 101501711 A CN101501711 A CN 101501711A
- Authority
- CN
- China
- Prior art keywords
- parameter
- source
- data set
- classification
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明的方法通过选择器来处理。选择器从数据集源中选择构成学习数据集的每个成员。源的每个成员是通过换能器提取的特征数据并被预先分配给任意一种类别。选择器计算源的每个成员的发散度以获得平均发散度。如果神经网络的输出层的输出神经元与由输出层表示的所有类别中的不同类别相关,则选择器将与最小平均发散度的类别对应的源的各个成员包括在从源到学习数据集的选择中。选择器还在选择中排除了与不同类别的各个剩余类别对应的源的各个成员。
Description
技术领域
本发明一般地涉及信号识别方法和装置,且更具体而言,涉及一种用于信号识别装置的学习数据集的优化方法以及能够优化学习数据集的信号识别装置。
背景技术
于2004年12月16日公布的日本专利申请公布第2004-354111号公开了目标检查方法以及装置(此后称作第一现有技术)。该装置具有测量器件(传感器、麦克风等)、换能器(transducer)、竞争学习神经网络、显示器件等,且工作在学习模式或检查模式。在学习模式中,该装置利用作为数据集合的学习数据集。通过以下方式获得集中的成员:测量器件从测量目标中获得测量信号且然后换能器从信号中提取特征(即,特征数据)。集中的每个成员还被用户分配给任意一种假设类别。随后,通过顺序地将学习数据集的每个成员输入到网络中,形成聚类映射(clusteringmap)。构成映射的所有元素一一对应于构成网络的输出层的所有输出神经元。在检查模式中,如果通过换能器提取的特征数据被输入到网络,网络判断数据的类别以指定该类别在映射上的位置。然后,显示器件示出聚类映射和类别的位置。因而,可以可视地认识测量结果(即,从测量信号获得的特征数据的类别)。
于2005年4月28日公布的日本专利申请公布第2005-115569号公开了一种信号识别装置及方法(此后,称作第二现有技术)。以与第一现有技术相同的方式,该装置具有竞争学习神经网络、显示器件等,且进一步具有位于测量器件和网络之间的信号处理器。该处理器由滤波器和换能器形成。
滤波器被配置成在通过模式、包络(波形)模式、FIR(有限脉冲响应)模式、小波变换模式和倒谱模式中的任意模式下工作。在通过模式中,来自测量器件的测量信号在没有信号处理的情况下被传送到换能器。在包络模式中,响应于合适的时间常数(截止频率)从测量信号中提取包络成分,且然后包络成分被传送到换能器。在FIR模式中,从来自如带通滤波器的测量信号中提取指定范围内的信号成分,且然后信号成分被传送到换能器。在小波变换模式中,基于小波变换,从传输到换能器的测量信号中去除与等于或小于指定阈值的小波系数对应的频率成分。在倒谱模式中,基于倒谱分析,从传输到换能器的测量信号中去除等于或小于指定阈值的功率成分。
第二现有技术的换能器被配置成工作在投影波形模式(projectionwaveform mode)、FFT(快速傅立叶变换)模式、FFT及小波变换模式、概密度函数模式以及有效值模式中的任意模式中,以从滤波器的输出提取特征(即,特征数据)。在投影波形模式中,基于窗口函数对来自滤波器的信号量值进行积分来提取特征。在FFT模式中,通过基于快速傅立叶变换计算傅立叶系数来提取特征。在FFT及小波变换模式中,通过对通过快速傅立叶变换获得的频率分布模式进行小波变换来提取特征。在概密度函数模式中,通过计算出概密度函数来提取特征。在有效值模式中,通过计算出有效值来提取特征。
在学习模式等中,信号识别装置计算滤波器和换能器模式的所有组合中的每个精度并根据精度顺序对每个组合分级。在检查模式之前,该装置从用户选择的一些滤波器和换能器模式组合中选择对应于最高精度的一个组合,并将信号处理器设定为所选的组合模式。
于2006年3月16日公布的日本专利申请公布第2006-072659号公开了信号识别方法和装置(此后称作第三现有技术)。以与第一现有技术相同的方式,该装置具有测量器件、竞争学习神经网络、显示器件等,此外,该装置还具有位于测量器件和网络之间的换能器。换能器被配置成从至少一个提取范围中提取特征(即特征数据)。例如,换能器从通过测量器件获得的测量信号的提取范围内的成分中提取特征,或者从测量信号中提取特征以进一步地在提取范围中提取特征。该装置改变每个指定范围的上限和下限以便确定至少一个提取范围,且然后计算各个指定范围的特征数据的类别分类的精度。然后,该装置将与最高精度对应的一个或多个指定范围设定成换能器的至少一个提取范围。
在第二和第三现有技术中,可以通过调整信号处理器的模式组合和通过调整换能器的至少一个提取范围来改进特征数据的分类评价的精度。然而,如果使用了不合适的学习数据集,特征数据的类别评价的精度无法得到改进。
发明内容
因此,本发明的一个目的在于优化学习数据集以便防止将不合适的学习数据集用于信号识别装置。
本发明的方法用于信号识别装置。该装置包括换能器和竞争学习神经网络。换能器被配置成从测量信号提取包括参数的特征数据。网络包括输入层和输出层。输入层具有一一对应于通过换能器提取的特征数据的参数的输入神经元。输出层具有输出神经元,输出神经元中的每个基于学习数据集通过权重矢量耦合到输入层的所有输入神经元以与任意类别相关。简而言之,网络被配置成将通过换能器提取的特征数据与输出层的任意输出神经元相关以分类到任意类别中。
本发明的第一至第三实施例通过装置中进一步包括的选择器来处理。选择器被配置成从数据集源中选择构成所述学习数据集的每个成员。数据集源的每个成员为通过换能器提取的特征数据并且预先被分配给任意一种类别。
第一种方法包括步骤(A),步骤(A)在顺序地将源的各个成员输入到网络中以试图将源的每个成员与输出层的任意输出神经元相关的预处理之后执行。步骤(A)被重复直到输出层的每个输出神经元与类别中的单一类别相关。步骤(A)包括以下步骤:(a)判断输出层的输出神经元是否与输出层表示的所有类别中的不同类别相关;(b)如果与不同类别相关,则关于所讨论的输出神经元计算与不同类别对应的源的每个成员的发散度;(c)基于源中每个成员的发散度,计算不同类别的每个平均发散度;(d)将与最小平均发散度的类别对应的源的各个成员包括在从源到学习数据集的选择中;以及(e)从选择中排除与不同类别中的各个剩余类别对应的源的各个成员。在此方法中,即使其类别错误的成员被包括在数据集源中,也可以自动地删除该成员。因而,可以优化学习数据集,并且可以将合适的类别与输出层中的每个输出神经元相关。结果,可以防止学习后的判断标准不清楚。
在实施例中,在步骤(b)的源的每个成员的发散度是在所讨论的成员(矢量)和所讨论的输出神经元上的权重矢量之间的矢量差的量值。
第二种方法在类似于第一方法的预处理之后执行,并利用发散度和平均发散度。即,第二方法包括:在预处理之后执行的计算源的每个成员的发散度的步骤(A),发散度是在所讨论的成员和与该成员相关的输出神经元上的权重矢量之间的矢量差的量值;以及步骤(B),被重复直到包括在源中的每个成员的发散度的均值和方差变得分别低于预定均值阈值和方差阈值。步骤(B)包括从源中排除发散度大于预定发散度阈值的各个成员的步骤。在这种方法中,可以从数据集源中排除与其它成员不合的至少一个成员。例如,例如,可以排除不属于良好评价的类别的特征数据和包括环境声音或噪声的特征数据。因而,可以优化学习数据集。另外,在基于优化的学习数据集的学习模式完成之后,信号识别装置可以在检查模式中精确地分类测量目标的质量。
在改进实施例中,第二种方法进一步包括在作为所述预处理的第二预处理之前执行的第一预处理。第一预处理包括以下步骤:(a)顺序地将源的各个成员输入到网络中以试图将源的每个成员与输出层的任意输出神经元相关;(b)计算输出层的每个输出神经元上的权重矢量和其它输出神经元中的每个输出神经元上的权重矢量之间的所有距离;(c)基于所有计算的距离,按输出层的输出神经元来计算最小距离或总距离;以及(d)排除与最小距离或总距离大于最小距离阈值或总距离阈值的各个输出神经元相关的源的各个成员。例如,在这种方法中,当利用最小距离和最小距离阈值时,可以排除低于与最小距离阈值对应的相似水平的与良好评价的类别相关的源的各个成员。结果,可以防止将属于不良评价的类别的特征数据分类到良好评价的类别中。当利用总距离和总距离阈值时,可以排除高于与总距离阈值对应的方差水平的与良好评价的类别相关的源的各个成员。结果,可以防止将属于不良评价的类别的特征数据分类到良好评价的类别中。
第三种方法包括:步骤(A),在源的所有成员上计算源的两个成员之间的所有距离;步骤(B),计算所有计算的距离的第一均值和第一方差;以及针对包括在源的各个成员执行的步骤(C)。步骤(C)包括以下步骤:(a)从源中选择成员以临时从源中排除该成员;(b)关于在该成员被排除的源中所包括的各个剩余成员,计算源中两个成员之间的所有距离;(c)计算所有计算距离的第二均值和第二方差;(d)如果从第一均值到第二均值的变化量值或从第一方差到第二方差的变化量值分别大于预定的第一或第二阈值且第一均值和第一方差分别大于第二均值和第二方差,则从源中排除所讨论的成员并将第二均值和第二方差分别设置成第一均值和第一方差;以及(e)如果从第一均值到第二均值的变化量值和从第一方差到第二方差的变化量值分别小于第一和第二阈值或者第一均值或第一方差分别小于第二均值或第二方差,则返回所讨论的成员到源中。在这种方法中,例如,可以防止将属于不良评价的类别的特征数据分类到良好评价的类别中。结果,可以优化学习数据集。由于可以从对学习数据进行优化的过程省略网络学习,所以可以提高处理速度。
本发明的第四种和第五种方法通过装置中进一步包括的选择器来处理。选择器被配置成从不同参数集中选择最佳参数组合。不同参数集用于不同计算类型。不同计算类型中的每个用于从测量信号中提取特征数据。不同参数集中的每个还包括不同参数组合。
第四种方法从不同参数集中的用于先前所选的计算类型的参数集中选择最佳参数组合。第四种方法包括:步骤(A),基于计算类型和参数组合,在用于计算类型的参数集的不同参数组合中的每个参数组合的情况下估计类别分类的精度;以及步骤(B),基于步骤(A)的结果选择所述最佳参数组合。步骤(A)包括为参数组合中的每个参数组合执行的步骤(a)。步骤(a)包括以下步骤:(i)基于所讨论的计算类型和所讨论的参数组合,从每个测量信号提取被分配给任意一种类别的每个特征数据,以生成用于精度估计的数据集;(ii)通过根据参数的顺序和值在二维平面上基本沿着一个轴和另一个轴分别设置与用于精度估计的数据集的每个参数对应的类别,生成二维图像;以及(iii)通过计算与二维图像的每个元素对应的类别区域上的熵,在所讨论的计算类型和所讨论的参数组合的情况下估计类别分类的精度。步骤(B)包括以下步骤:通过选择与由步骤(A)获得的每个精度的最高精度对应的参数组合来选择所述最佳参数组合。在这种方法中,可以通过对从换能器获得的每个特征数据进行优化来优化学习数据集。
第五种方法从不同计算类型中选择最佳计算类型并且还从不同参数集中的用于所选计算类型的参数集中选择最佳参数组合。即,第五种方法包括:步骤(A),从不同计算类型中顺序地选择计算类型;步骤(B),基于所选计算类型和参数组合,在用于所选计算类型的参数集的不同参数组合的情况下,估计类别分类的精度;以及步骤(C),基于步骤(A)和(B)的结果选择所述最佳计算类型和用于计算类型的参数组合。步骤(B)包括为参数组合中的每个参数组合执行的步骤(a)。步骤(a)包括以下步骤:(i)基于所讨论的计算类型和所讨论的参数组合,从每个测量信号提取被分配给任意一种类别的每个特征数据,以生成用于精度估计的数据集;(ii)通过根据参数的顺序和值在二维平面上基本沿着一个轴和另一个轴分别设置与用于精度估计的数据集的每个参数对应的类别,生成二维图像;以及(iii)通过计算与二维图像的每个元素对应的类别区域上的熵,在所讨论的计算类型和所讨论的参数组合的情况下估计类别分类的精度。步骤(C)包括以下步骤:通过选择与由步骤(A)和(B)获得的每个精度的最高精度对应的计算类型和参数组合来选择所述最佳计算类型和用于计算类型的参数组合。在这种方法中,通过对从换能器获得的每个特征数据进行优化来优化学习数据集。
本发明的能够优化学习数据集的信号识别装置包括换能器和竞争学习神经网络。换能器被配置成从测量信号提取包括参数的特征数据。网络包括输入层和输出层。输入层具有一一对应于通过换能器提取的特征数据的参数的输入神经元。输出层具有输出神经元,输出神经元中的每个通过权重矢量耦合到输入层的所有输入神经元以基于学习数据集与任意类别相关。简而言之,网络被配置成将通过换能器提取的特征数据与输出层的任意输出神经元相关以分类到任意类别中。装置进一步包括选择器,用于从不同参数集中的用于先前所选的计算类型的参数集中选择最佳参数组合。不同参数集用于不同计算类型。不同计算类型中的每个用于从测量信号中提取特征数据。不同参数集中的每个还包括不同参数组合。选择器被配置成:(A)基于计算类型和参数组合在用于计算类型的参数集的不同参数组合中的每个参数组合的情况下估计类别分类的精度;以及(B)在参数组合中的每个参数组合的情况下,基于类别分类的精度来选择所述最佳参数组合。当估计类别分类的精度时,选择器被配置成:(a)基于所讨论的计算类型和所讨论的参数组合,从每个测量信号中提取被分配给任意一种类别的每个特征数据以生成用于精度估计的数据集;(b)通过根据参数的顺序和值在二维平面上基本沿着一个轴和另一个轴分别设置与用于精度估计的数据集的每个参数对应的类别,生成二维图像;以及(c)通过计算与二维图像的每个元素对应的类别区域上的熵,在所讨论的计算类型和所讨论的参数组合的情况下,估计类别分类的精度。当选择所述最佳参数组合时,选择器被配置成,通过选择与在参数组合的情况下的每个精度的最高精度对应的参数组合来选择所述最佳参数组合。
附图说明
下面将更为详细地描述本发明的优选实施例。参考以下的详细描述和附图,本发明的其他特征和优点将变得更好理解,其中:
图1是根据本发明第一实施例的能够优化学习数据集的信号识别装置的框图;
图2是在图1的装置中的神经网络的示意图;
图3是在图1的装置中的选择器的操作的示意图;
图4是选择器的流程图;
图5是根据本发明第二实施例的能够优化学习数据集的信号识别装置的框图;
图6是图5的装置中的选择器的流程图;
图7是在改进实施例中的选择器的流程图;
图8是根据本发明第三实施例的能够优化学习数据集的信号识别装置的框图;
图9是图8的装置中的选择器的流程图;
图10是根据本发明第四实施例的能够优化学习数据集的信号识别装置的框图;
图11A、11B和11C是在图10的装置中的选择器的操作的示意图;
图12是选择器的流程图;
图13A、13B和13C是选择器的操作的示意图;
图14是选择器的操作的示意图;
图15A、15B、15C和15D是选择器的操作的示意图;
图16是选择器的流程图;
图17是选择器的流程图;以及
图18A、18B和18C是装置优点的示意图。
具体实施方式
图1示出根据本发明第一实施例的能够优化学习数据集的信号识别装置。该装置由测量器件10、换能器11、存储器件12、神经网络13、映射生成器14以及选择器15组成,且类似于第一现有技术该装置工作在学习模式和检查模式中。例如,该装置用于监视作为测量目标的装置19的操作是否正常。装置19例如具有诸如电动机等的功率源,但是本发明的测量目标不限于这种类型的装置。
测量器件10被配置成获得测量信号(例如电信号)以便判断装置19的操作是否正常。例如,测量器件10由麦克风101和/或震动传感器102组成。麦克风101检测装置19的操作声音以向换能器11供给声音信号。传感器102检测装置19的工作震动以向换能器11供给震动信号。然而,本发明不限于此,本发明可以包括由诸如麦克风、震动传感器、TV摄像机、气味传感器等的单一器件或它们的组合形成的测量器件。在本发明中的测量信号还可以是由测量目标生成的信号。
换能器11被配置成从测量信号中提取包括参数的特征数据。例如,换能器11可以是以与第二现有技术相同的方式由滤波器和换能器形成的信号处理器。在这种例子中,滤波器可以用于限制测量信号的频带以减少包括在信号中的噪声。来自测量器件10的测量信号10包括震动成分,因而换能器11按单位时间来接收测量信号以将其转换成数字信号。然而,本发明不限与此,为了在相同条件下接收测量信号,换能器11可以基于与装置19的操作同步的时序信号(触发信号)或测量信号的波形特征(例如测量信号的开始点和结束点)来接收测量信号。从数字信号获得的数据被临时存储在换能器11的缓冲器(没有示出)中。然后,类似于第二现有技术,换能器11工作在不同模式中的任意模式中,以从在缓冲器中存储的数据中提取特征(即,特征数据)。例如,换能器11通过FFT(即,特征数据(各个频带的功率))提取适合于装置19的质量评价的频率成分,以存储在存储器件12中并且还提供给神经网络13。然而,本发明不限于此,本发明的换能器可以通过由多个带通滤波器组成的滤波器组来提取适合于测量目标的质量评价的频率成分。
存储器件12被配置成持有信号识别装置操作需要的各种数据。例如,器件12包括RAM(随机存取存储器)等,并持有由换能器11提取的且构成数据集源的每个特征数据。源的每个成员(即特征数据)被分配给用于每个装置19的任意一种类别。在一个例子中,器件12持有构成源的可选成员(例如,150个成员)。器件12还基于FIFO(先进先出)来管理源的每个成员。然而,数据集源可以包括比较少的成员且新的成员可以适当地增加到源中。器件12还可以持有数据集源。
神经网络13是基于无监督竞争学习算法(SOM(自组织映射)神经网络)的竞争学习神经网络。网络13、映射生成器14和选择器由一个或更多CPU(中央处理单元)等形成。然而,本发明的神经网络可以是专用的神经计算机。
如图2所示,网络13包括输入层131和输出层132。输入层131具有响应于来自换能器11的特征数据的参数数目而设置的可变的输入神经元(N1)。输入神经元与通过换能器11提取的特征数据中的参数一一对应。即,输入层131的所有输入神经元与使用的所有参数一一对应。输出层132也具有可变的输出神经元(N2)。在学习模式中,基于学习数据集,输出神经元中的每个通过可变的权重矢量(权重系数)耦合到输入层131的所有输入神经元,以与任意类别相关。在检查模式中,网络13被配置成将通过换能器11提取的特征数据与输出层132的任意输出神经元相关,以分类到任意类别中。在这个例子中,特征数据与其权重矢量和特征数据形成最小欧几里德距离的输出神经元相关。例如,如果特征数据与分配给良好评价的类别的输出神经元相关,则该特征数据被分类到良好评价的类别。同样,如果特征数据与被分配给不良评价的类别的输出神经元相关或者与没有被分配给良好评价的类别的输出神经元相关,则特征数据被分类到不良评价的类别。在第一实施例中,使用良好评价的类别和不良评价的类别。因此,如果特征数据与被分配给不良评价的类别的输出神经元相关,则该特征数据被分类到不良评价的类别中。
类似于第一现有技术,映射生成器14产生聚类映射以指定由网络13分类的类别在映射中的位置。例如产生6×6的聚类映射,且通过显示器件(没有示出)显示类别的位置和映射。这样,属性呈现高相似性的类别在聚类映射中被设置在相近的位置,因此形成聚类。
选择器15被配置成从数据集源中选择构成所述学习数据集的每个成员。源的每个成员是存储器件12持有且提前被分配给任意一种类别的特征数据。在第一实施例中,源的每个成员被分配给良好评价的类别或不良评价的类别。然而,本发明不限于此,可以通过将模拟生成的各种测量信号输入到换能器中来生成本发明的数据集源。
在顺序输入源的各个成员到网络13中以试图将源的每个成员与输出层132的任意输出神经元相关的预处理之后,选择器15基于用于优化学习数据集的最佳方法执行一系列的操作。然而,最佳方法可以包括预处理。另外,由于在学习模式中分配给每个特征数据的类别不是总是合适的,需要优化学习数据集。
重复最佳方法,直到输出层132的各个输出神经元与类别中的单一类别相关。基于最佳方法,选择器15判断输出层132的输出神经元是否与输出层132表示的所有类别中的不同类别相关。在第一实施例中,选择器15判断输出层132的输出神经元是否与两个类别相关(即,良好评价的类别和不良评价的类别)。
如果与两个类别相关,则选择器15关于所讨论的输出神经元计算与两个类别对应的源中每个成员的发散度(divergence degree)。发散度是在所讨论的成员(矢量)和所讨论的输出神经元上的权重矢量之间的矢量差的量值。发散度Y通过下式给出:
Y=([X]/X-[Wwin]/Wwin)T([X]/X-[Wwin]/Wwin)
其中,[X]是输入数据,[Wwin]是所讨论的输出神经元的权重矢量,T表示转置,且X和Wwin分别是矢量[X]和[Wwin]的模(norm)。通过将每个矢量除以其模发散度Y被归一化。
基于源的每个成员的发散度,选择器15计算两个类别中的每个平均发散度(图1中的151)。然后,选择器15将对应于最小发散度的类别(第一类别)的源的每个成员包括在从源到学习数据集的选择中。在第一实施例中,保留了与最小平均发散度的类别对应的源的各个成员。选择器15也可以从选择中排除与类别(两个类别)中的各个剩余类别(第二类别)对应的源的各个成员(图1中152)。在第一实施例中,删除了与第二类别对应的源的各个成员。
例如,如图3所示,当聚类映射包括与两个类别相关的元素(EGRAY)时,每个元素(EGRAY)被修改成两个类别中的任意类别。例如,选择器15选择第三行和第四列的元素(EGRAY),并计算与该元素(EGRAY)相关的源中各个成员的发散度。然后,选择器15计算与元素(EGRAY)相关的属于第一类别(例如,良好评价的类别)的源的所有成员的平均发散度(第一平均发散度)。例如,如果属于第一类别的源的所有成员的发散度为0.6、0.4和0.2,则第一平均发散度变为0.40。选择器15还计算与元素(EGRAY)相关的属于第二类别(不良评价的类别)的源的所有成员的平均发散度(第二平均发散度)。例如,如果属于第二类别的源的所有成员的发散度为1.1、0.8和1.5,则第二平均发散度变为1.13。如果第一平均发散度是最小平均发散度,则选择器15删除属于第二类别的源的各个成员。相反,如果第二平均发散度是最小平均发散度,则选择器15删除属于第一类别的源的各个成员。例如,如果第一和第二平均发散度分别是0.40和1.13,则删除属于第二类别的源的各个成员。类似地,选择器15修改剩余的成员(EGRAY)。另外,虽然映射包括了与良好评价的单一类别相关的元素(EGOOD),但是保留了与元素(EGOOD)相关的源的各个成员。虽然映射包括与不良评价的单一类别相关的元素(ENG),但是也保留了与元素(ENG)相关的源的各个成员。
现在结合图4解释第一实施例的操作。首先解释预处理(S1-S4)。如图4所示,测量器件10从装置19收集测量信号(S1),且换能器11从每个测量信号提取特征(特征数据)(S2)。每个特征数据被存储在存储器件12中。这时,每个特征数据被用户或管理员分配给构成数据集源的良好评价的类别或不良评价的类别。随后,源被用于学习数据集,且类似于第一至第三现有技术,基于该集(源)来执行神经网络13的学习(S3)。然后映射生成器14生成聚类映射。这时,与输出层132相关的每个类别被提供给映射中的对应元素(S4)。
接着解释最佳方法(S5-S12)。选择器15将在预处理中通过源的每个成员(特征数据)与任意类别相关的输出神经元和源的一个或更多对应成员结合,由此生成激活神经元列表(fire neuron list),激活神经元列表的每个元素包括输出神经元和源的一个或更多成员的组合(S5)。然后,选择器15基于该列表判断输出层132的输出神经元是否与两个类别相关。即,选择器15判断所讨论的输出神经元是否是“灰色”(S6)。在重复判断后如果没有输出神经元是“灰色”,则选择器15结束图4的流程(S7)。
在步骤S6,如果所讨论的输出神经元是“灰色”,则选择器15关于输出神经元计算与两个类别对应的源的每个成员的发散度,并基于源的每个成员的发散度计算两个类别的每个平均发散度(S8-S9)。在步骤S10,选择器15留下与最小平均发散度的类别对应的源的各个成员,且还删除与类别(两个类别)中的各个剩余类别即除最小平均发散度以外的各个类别对应的源的各个成员。然后,选择器15基于列表判断输出层132的另一输出神经元是否是“灰色”(S11)。如果所述另一输出神经元是“灰色”,则选择器15选择“灰色”输出神经元(S12),并返回到步骤S9。如果没有输出神经元是“灰色”,则选择器15返回到步骤S3。这时,从优化的数据集源中选择学习数据集,因而学习数据集得到优化。然后基于优化的学习数据集执行神经网络13的学习。
在第一实施例中,即使类别错误的成员被包括在数据集源中,也可以自动删除该成员。因而,可以优化学习数据集源,且可以将合适的类别与输出层的每个输出神经元相关。结果,可以防止学习后的评价标准不清楚。
图5示出根据本发明第二实施例的能够优化学习数据集的信号识别装置。与第一实施例类似,该装置具有测量器件20、换能器21、存储器件22、神经网络23和映射生成器24,而根据第二实施例的内容,该装置进一步具有选择器25。
选择器25被配置成从数据集源中选择构成学习数据集的每个成员。源的每个成员是存储器件22持有的特征数据,并且提前被分配给类别中的任意一个。在第二实施例中,源的各个成员被分配给良好评价的类别。在可替选实施例中,源的各个成员被分配给良好评价的类别或不良评价的类别。另外,每个成员的良好评价并非总是正确的。例如,因为存在环境声音或突发噪声被包括在任意成员(即,特征数据)的可能性。
因此,在顺序输入源的各个成员到网络23中以试图将源的每个成员与输出层的任意输出神经元相关的预处理之后,选择器25基于用于优化学习数据集的最佳方法执行一系列的操作。
类似于第一实施例,基于最佳方法,选择器25计算源的每个成员的发散度。即,发散度是在所讨论的成员和与该成员相关的输出神经元上的权重矢量之间的矢量差的量值。然后,选择器25计算包括在源中的每个成员的发散度的均值和方差(variance)(图5中的251和252)。然后选择器25重复将不合适的成员从源中排除的过程直到包括在源中的每个成员的发散度的均值和方差变得分别低于预定的均值阈值和方差阈值。在这一过程中,选择器25从源中排除了发散度大于预定发散度阈值的各个成员(图5中253)。在第二实施例中,选择器25删除了发散度大于发散度阈值的各个成员。均值阈值、方差阈值和发散度阈值由用户设定。
现在结合图6解释第二实施例的操作。首先,以几乎与第一实施例相同的方式,选择器25执行预处理(S21)。这时,网络23的输出层的每个输出神经元被提供有与输入层的所有输入神经元的数目对应的权重矢量。另外,如果输出层的一些神经没有通过数据集源与良好评价的类别相关,则这些神经中的每个自动地属于不良评价的类别。
此后,选择器25基于最佳方法执行一系列的操作。即,选择器25计算源的每个成员的发散度(S22),并计算包括在源中的每个成员的发散度的均值和方差(S23)。在步骤S24,选择器25判断均值是否大于或等于预定的均值阈值,或者方差是否等于或大于预定的方差阈值。如果均值和方差分别小于均值阈值和方差阈值,选择器25判断源的每个成员的类别是合适的并结束学习模式(S25)。
如果均值等于或大于均值阈值或者方差等于或大于方差阈值,选择器25从源中删除发散度大于预定发散度阈值的各个成员。即,选择器25从源中选择成员(特征数据)(S26),并判断成员的发散度是否大于发散度阈值(S27)。如果成员的发散度大于发散度阈值,则选择器25删除该成员(S28)并进行步骤S29。如果成员的发散度等于或小于发散度阈值,则选择器25为源保留该成员并进行步骤S29。在步骤S29,选择器25判断从源中对每个成员的选择是否已结束。如果选择已结束,则返回到步骤S21。如果选择没有结束,则返回到步骤S26。
在第二实施例中,可以从数据集源中排除与其它成员不合的至少一个成员。例如,可以排除不属于良好评价的类别的特征数据和包括环境声音或噪声的特征数据。结果,可以优化学习数据集。另外,在完成基于优化学习数据集的学习模式后,信号识别装置在检查模式中可以精确地对测量目标的质量进行分类。
在可替选实施例中,选择器25重复将不合适的成员从源中排除的过程直到包括在源中的每个成员的发散度的均值和方差变得分别等于或低于均值阈值和方差阈值。选择器25还从源中排除了其发散度等于或大于发散度阈值的各个成员。
在改进实施例中,如图7所示,选择器25被配置成在如图6的预处理(S21)的第二预处理之前,进一步执行第一预处理(S31-S38)。在第一预处理中,选择器25顺序地将数据集源的各个成员输入到神经网络23中以试图将源的每个成员与网络23的输出层的任意输出神经元相关。然后,选择器25计算在输出层的每个输出神经元上的权重矢量与在其它输出神经元中的每个上的权重矢量之间的所有距离。在改进实施例中,通过将两个输出神经元的权重矢量之间的差乘方来获得每个距离,且每个距离等于欧几里德距离的平方。然后,选择器25基于所有计算的距离按输出层的输出神经元来计算最小距离。在可替选实施例中,选择器25计算总距离而不是最小距离。
然后,选择器25排除与最小距离大于预定最小距离阈值的各个输出神经元相关的源的各个成员。在改进实施例中,删除所述的源的各个成员。当输出神经元的最小距离大于最小距离阈值时,与输出神经元相关的源的成员之间的类别的相似水平被视作低于与最小距离阈值对应的相似水平,且排除与输出神经元相关的源的各个成员。因此,源的成员更相似且因而难以被分类到错误的类别中。在可替选实施例中,选择器25排除或删除与总距离大于预定总距离阈值的各个输出神经元相关的源的各个成员。在这种情况下,当输出神经元的总距离大于总距离阈值时,在与输出神经元相关的源的成员之间的类别的方差水平被视作高于对应于总距离阈值的方差水平,且与该输出神经元相关的源的各个成员排除或删除。因而,源的成员具有较低的方差特性且因而难以被分类到错误的类别中。在另一可替选实施例中,选择器25排除或删除与最小距离(或总距离)等于或大于最小距离阈值(或总距离阈值)的各个输出神经元相关的源的各个成员。
现在参考图7来解释改进实施例的操作。在步骤S31,选择器25执行类似于图6中的步骤S21的预处理。选择器25顺序地计算在网络23的输出层的每个输出神经元上的权重矢量与在其它输出神经元中的每个输出神经元上的权重矢量之间的所有距离(S32)。每个距离例如是欧几里德距离的乘方。然后,选择器25基于所有计算的距离按输出层的输出神经元来计算最小距离(或总距离)(S33)。然后,选择器25从输出层选择输出神经元(S34)。在步骤S35,选择器25判断所选输出神经元的最小距离(总距离)是否大于最小距离阈值(总距离阈值)。如果最小距离(总距离)大于最小距离阈值(总距离阈值),选择器25删除与所选输出神经元相关的源的各个成员(S36),并进行步骤S37。如果最小距离(总距离)等于或小于最小距离阈值(总距离阈值),则选择器25保留与所选输出神经元相关的源的各个成员并进行步骤S37。在步骤S37,选择器25判断从输出层中的各个输出神经元的选择是否结束。如果选择已结束,则进行步骤S38。如果选择没有结束,则返回步骤S34。在步骤S38,选择器25判断在步骤S34-S37中是否删除源的成员。如果没有删除源的任何成员,进行步骤S21,否则返回步骤S31。
在改进实施例中,当利用最小距离和最小距离阈值时,可以排除低于与最小距离阈值对应的相似水平的与良好评价的类别相关的源的各个成员。结果,可以防止将属于不良评价的类别的特征数据分类到良好评价的类别中。当利用总距离和总距离阈值时,可以排除高于与总距离阈值对应的方差水平的与良好评价的类别相关的源的各个成员。结果,可以防止将属于不良评价的类别的特征数据分类到良好评价的类别中。
图8示出了根据本发明第三实施例的能够优化学习数据集的信号识别装置。类似于第一实施例,该装置具有测量器件30、换能器31、存储器件32、神经网络33和映射生成器34,而根据第三实施例的内容,该装置进一步具有选择器35。
选择器35被配置成在没有预处理(见图4中的S1-S4)的情况下从数据集源中选择构成学习数据集的每个成员。源的每个成员是存储器件32持有的且预先被分配给类别中的任意一个的特征数据。在第三实施例中,源的各个成员例如被分配给良好评价的类别。在可替选实施例中,源的各个成员被分配给良好评价的类别或者不良评价的类别。
选择器35关于源的各个成员计算源的两个成员之间的距离(图8中的351)。在第三实施例中,通过将两个输出神经元的权重矢量之间的差乘方来获得每个距离,且每个距离等于欧几里德距离的平方。然后,选择器35计算所有计算的距离的第一均值和第一方差(图8中的352)。随后对包括在源中的各个成员执行重复过程。在重复过程中,选择器35从源中选择成员以临时从源中排除该成员。然后关于在该成员被排除的源中所包括的各个剩余成员,选择器35计算源的两个成员之间的所有距离,并计算所有计算距离的第二均值和第二方差(图8中的352)。
随后,如果第一量值或第二量值分别大于预定的第一阈值或第二阈值且第一均值和第一方差分别大于第二均值和第二方差,则选择器35从源中排除所讨论的成员(图8中353),并将第二均值和第二方差分别设置成第一均值和第一方差。第一量值是从第一均值变化到第二均值的量值。第二量值是从第一方差变化到第二方差的量值。如果第一量值大于第一阈值,所讨论的成员在良好评价的类别之外的可能性高。类似地,如果第二量值大于第二阈值,所讨论的成员在良好评价的类别之外的可能性高。另外,如果第一均值和第一方差分别大于第二均值和第二方差,所讨论的成员的第一均值和第一方差增加,且因而所讨论的成员在良好评价的类别之外的可能性高。因而,通过删除所讨论的成员,可以防止将属于不良评价的类别的特征数据分类到良好评价的类别。在可替选实施例中,如果第一量值或第二量值分别等于或大于第一或第二阈值且第一均值和第一方差分别等于或大于第二均值和第二方差,则选择器35将所讨论的成员从源中排除并将第二均值和第二方差分别设置成第一均值和第一方差。
如果第一量值和第二量值分别等于或小于第一和第二阈值或者第一均值或第一方差分别等于或小于第二均值或第二方差,选择器35将所讨论的成员返回到源中。在可替选实施例中,如果第一量值和第二量值分别小于第一和第二阈值或者第一均值或第一方差分别小于第二均值或第二方差,则选择器35将所讨论的成员返回到源中。
现在参考图9来解释第三实施例的操作。关于源的所有成员,选择器35计算数据集源的两个成员之间的所有距离(S41)。然后,选择器35计算所有的计算距离的第一均值和第一方差(S42)。随后选择器35从源中选择成员以临时地将该成员从源中排除(S43)。然后关于包括在源中的所有的剩余成员,选择器35计算排除该成员的源中两个成员之间的所有距离,并计算所有的计算距离的第二均值和第二方差(S44)。此后,选择器35计算从第一均值变化到第二均值的量值(第一量值)和从第一方差变化到第二方差的量值(第二量值)。如果第一量值或第二量值分别大于第一或第二阈值且第一均值和第一方差分别大于第二均值和第二方差(S46-S48),则选择器35从源中排除所讨论的成员(S49)并将第二均值和第二方差分别设置成第一均值和第一方差(S50),并进行步骤S51。否则,选择器35将所讨论的成员返回到源中并进行步骤51。在步骤S51,选择器35判断从源中对各个成员的选择是否已经结束(S51)。如果选择结束,进行步骤S52,且如果选择没有结束,则返回到步骤S43。在步骤S52,选择器35判断在步骤S43-S51是否删除源的成员。如果没有删除源的任何成员,则选择器35执行网络33的学习(S53),并进行下一步骤(没有示出)。否则,选择器35返回到步骤S41。
在第三实施例中,可以防止将属于不良评价的类别的特征数据分类到良好评价的类别。结果,可以优化学习数据集。也可以从优化学习数据的过程中省略神经网络33的学习,因而提高处理速度。
图10示出根据本发明第四实施例的能够优化学习数据集的信号识别装置。类似于第一实施例,该装置具有测量器件40、换能器41、存储器件42、神经网络43以及映射生成器44,且该装置进一步具有输出器件46和选择器45。
以与第一实施例相同的方式,换能器41包括在由滤波器(没有示出)和换能器形成的信号处理器中。因此,类似于第二现有技术,第四实施例的滤波器工作在通过模式、包络模式、FIR模式、小波变换模式和倒谱模式等中的任意模式中。换能器41还工作在投影波形模式、FFT模式、FFT及小波变换模式、概密度函数模式以及有效值模式等中的任意模式中,以从滤波器的输出提取特征(即,特征数据)。每个特征数据被用户或管理员分配给类别中的任意一个。例如,在第四实施例中,每个特征数据被分配给良好评价的类别或不良评价的类别。然而,本发明不限于此,没有被用户或管理员分配给良好评价的类别的每个特征数据可以被自动分配给不良评价的类别。
输出器件46例如是用于显示聚类映射和由网络32分类的类别的位置以及报警屏幕等的显示器件。输出器件46可以包括发出报警的蜂鸣器等。
选择器45被配置成在没有学习的情况下对从换能器41获得的每个特征进行优化以优化学习数据集(见图4的S1-S4)。选择器45从不同的计算类型(方法)中选择最佳计算类型。选择器45还用于从不同参数集中的所选计算类型的参数集中选择最佳参数组合(诸如输入到网络43的每个输入神经元中的变量等的因数)。不同计算类型中的每个计算类型用于从测量信号中提取特征数据。即,不同计算类型包括由投影波形模式、FFT模式、FFT及小波变换模式、概密度函数模式以及有效值模式等(见第二现有技术)使用的计算类型。不同参数集被用于不同计算类型。不同函数集中的每个包括不同参数集合。可以提前准备或通过计算生成不同参数组合。
由于这点,选择器45顺序地从不同计算类型中选择计算类型(图10中的451)。只要从不同计算类型中选择计算类型,基于所选计算类型和参数组合,选择器45在用于所选计算类型的参数集的不同参数组合中的每个参数组合的情况下估计类别分类的精度。这里,选择器45顺序地从用于计算类型的参数集中选择参数组合并在参数集的参数组合中的每个参数组合的情况下估计类别分类的精度。
即,基于所讨论的计算类型和所讨论的参数组合,选择器45通过换能器41从每个测量信号中提取分配给任意一种类别中的每个特征数据,以生成用于精度估计的数据集。例如,如图11A所示,从工作在所讨论的计算类型的模式(例如FFT模式)中的换能器41提取第一特征数据(5,6,7,8)和第二特征数据(9,8,8,10)。当它们中的每个被分配给良好评价的类别时,第一特征数据和第二特征数据被包括在用于精度估计的数据集中。类似地,当提取第三特征数据(6,7,9,12)和第四特征数据(7,5,11,15)且它们中的每个被分配给不良评价的类别时,第三特征数据和第四特征数据也被包括在用于精度估计的数据集中。
然后,通过根据参数的顺序和值在二维平面上基本沿着一个轴和另一个轴分别设置与用于精度估计的数据集的每个参数对应的类别,选择器45生成二维图像。例如,如图11B所示,选择器45将用于精度估计的数据集中的每个第一参数以上升顺序设置在二维平面的第一行中。因此,当用于精度估计的数据集包括图11A的每个特征数据时,第一特征数据、第三特征数据、第四特征数据和第二特征数据的第一参数被分别设置在第一、第二、第三和第四列。类似地,选择器45将集中的每个第二参数、每个第三参数和每个第四参数以上升顺序分别设置在二维平面的第二、第三和第四行中。随后,如图11C所示,选择器45通过将每个参数值与对应类别相关而生成二维图像。
然后,通过计算与二维图像的每个元素对应的类别区域上的熵,选择器45在所讨论的计算类型和所讨论的参数组合的情况下估计类别分别的精度。通过将与二维图像的各个元素对应的类别区域的熵求和来计算总的TH,以估计精度。在第四实施例中,类别区域是二维图像的聚类区域。例如,当类别区域的单位长度(与一个参数对应的长度)是“1”时,在图11C中的二维图像的第一行中的第一类别区域变为“1”且第二类别区域的长度变为“2”。在这个例子中,所述总的TH通过以下公式给出:
其中L(i,j)是二维图像在二维平面上沿着一个轴(垂直轴)的第i个区域中的第j个类别区域的长度,np是用于精度估计的数据集的所有成员的数目,m是在第i个区域的各个类别区域的数目,且n是二维图像沿着垂直轴的所有区域的数目。H(i)是各个第i个参数的熵。
在估计各个精度后,通过选择计算类型和与各个精度中的最高精度对应的参数组合,选择器45选择所述最佳计算类型和用于计算类型的参数组合。
现在结合图12解释第四实施例的操作。如图12所示,当从不同计算类型中选择例如FFT时,选择器45执行一系列的操作以便从例如频带的参数集中选择最佳参数组合。在FFT的情况下,可以获得成块的用于精度估计的各个数据集,且因而选择器45通过换能器41从每个测量信号中生成与频带的参数集对应的用于精度估计的各个数据集(S61)。
随后,选择器45从参数集中选择参数组合并基于所选的参数组合预置频带的每个开始和结束频率(S62-S64)。频带的数目被设置成由所选参数组合表示的数目(例如,参数的数目),且频带的每个频率被设置成由所选参数组合表示的对应频率。
例如,如图13A-13C所示,当频带的数目是“2”时,频带被设置成频带FB1和FB2。频带FB1的开始频率的下限是0Hz,且上限是响应测量信号而设置的最大频率的四分之一。频带FB1的结束频率的下限是最大频率的四分之一且上限是最大频率的四分之三。频带FB2的开始频率的下限是最大频率的四分之一,且上限是最大频率的四分之三。频带FB2的结束频率的下限是最大频率的四分之三且上限是最大频率。如图14所示,当频带的数目是“3”时,通过将从0Hz到最大频率的范围三等分来设置频带FB1、FB2和FB3。在这个例子中,中央频带FB2的开始频率的下限是左频带FB1的中心频率且上限是左频带FB2的中心频率。同样,频带FB2的结束频率的下限是频带FB2的中心频率且上限频率是右频带FB3的中心频率。图13A至13C中的每个示出成块的图15A-15D的每个特征数据。图15A和15B中每个图示出分配给良好评价的类别的特征数据,且图15C和15D中的每个图示出分配给不良评价的类别的特征数据。在图13A-13C中,图13A的精度最高(高精度)。因为频带FB1只包括与良好评价的类别对应的信号成分,且频带FB2只包括与不良评价的类别对应的信号成分。相反,因为频带FB1和FB2中的每个包括与良好评价和不良评价的类别对应的信号成分,图13C的精度最低(低精度)。图13B的精度是中等精度。
在步骤S65,选择器45基于频带通过从步骤S61的用于精度估计的各个数据集中提取与所选参数组合对应的每个成员(特征数据),来生成与所选参数组合对应的用于精度估计的数据集。然后,选择器45生成形成数据集的二维图像(S66),并基于二维图像在所讨论的计算类型和所讨论的参数组合的情况下估计类别分类精度。即,在步骤S67,选择器45计算总熵(TH)。
在步骤S68、S69、S63和S64中,直到结束从频带的参数集中选择各个参数组合,选择器45基于另一参数组合来改变每个开始频率和每个结束频率且然后重复步骤S65-S67。在这个例子中,通过响应每个参数组合的每个值来改变每个开始频率和每个结束频率。在图12的例子中,每个开始频率被顺序地改变成不同的频率,且关于每个改变的开始频率的每个结束频率被顺序地改变成不同的频率(见图13A-13C)。在步骤S70,选择器45以精度(总TH)降低的顺序来对频带的参数集的各个参数组合进行分类。结果(见图10中的“判断结果”)被存储在存储器件42中。
此后,当从不同计算类型中选择例如投影波形时,选择器45执行一系列的操作以便从例如用于窗口函数(时间范围)的窗口的参数集中选择最佳参数组合,如图16所示。即,选择器45从参数集中选择参数组合并基于所选的参数组合预置窗口的开始时间和结束时间(S71-S73)。然后,选择器45通过换能器41从每个测量信号生成与参数组合对应的用于精度估计的数据集(S74)。然后,选择器45从数据集生成二维图像(S75),并基于二维图像在所讨论的参数组合和所讨论的计算类型的情况下估计类别分类的精度。即,在步骤S76,选择器45计算总熵(TH)。在步骤S77、S78、S72和S73,直到结束从参数集中选择各个参数组合,选择器45基于另一参数组合改变开始时间和结束时间且然后重复步骤S74-S76。在步骤S79,选择器45以精度(总TH)降低的顺序来对所讨论的参数集的各个参数组合进行分类。结果被存储在存储器件42中。
此后,当从不同计算类型中选择例如有效值形式时,选择器45执行一系列的操作以便从例如用于分辨率的参数集中选择最佳参数组合,如图17所述。即,选择器45从参数集中选择参数组合并基于所选参数组合预置分辨率(S81-S82)。在图17的例子中,初始值为“10”。然后,选择器45通过换能器41从每个测量信号中生成与参数组合对应的用于精度估计的数据集(S83)。然后,选择器45从数据集中生成二维图像(S84),并基于二维图像在所讨论的计算类型和在所讨论的参数组合的情况下估计类别分类的精度。即,在步骤S85,选择器45计算总熵(TH)。在步骤S86和S82中,直到结束从参数集中选择各个参数组合,选择器45基于另一参数组合改变分辨率且然后重复步骤S83-S85。在步骤S87,选择器45以精度(总TH)降低的顺序对所讨论的参数集的各个参数组合进行分类。结果存储在存储器件42中。
在从不同计算类型中的各个计算类型的选择以及各个计算类型中的每个计算类型的各个参数组合的选择结束后,通过选择计算类型和与各个精度中的最高精度对应的参数组合,选择器45选择最佳计算类型以及用于计算类型的参数组合。
在第四实施例中,通过对从换能器41获得的每个特征数据进行优化来优化学习数据集。结果,如图18A-18C所示,可以删除由计算类型和参数组合引起的“灰色”元素,且可以生成只是由良好评价的类别和不良评价的类别组成的聚类映射,如图18C所示。
在可替选实施例中,先前由用户或管理员从不同的计算类型中选择计算类型。在这个例子中,选择器45基于计算类型和参数组合、在用于计算类型的参数集的不同参数组合中的每个参数组合的情况下估计类别分类的精度。即,基于所讨论的计算类型和所讨论的参数组合,选择器45通过换能器41从每个测量信号中提取分配给任意一种类别的每个特征数据,以便生成用于精度估计的数据集。然后,通过根据参数的顺序和值在二维平面上基本沿着一个轴和另一个轴分别设置与用于精度估计的数据集的每个参数对应的类别,选择器45生成二维图像。然后,通过计算与二维图像的每个元素对应的类别区域上的熵,选择器45在所讨论的计算类型和所讨论的参数组合的情况下估计类别分别的精度。通过所述总TH来给出精度。在估计各个精度后,通过选择与各个精度的最高精度对应的参数组合,选择器45选择所述最佳参数组合。
尽管关于某些优选实施例描述了本发明,但是本领域技术人员可以在不离开本发明的真实精神和范围的情况下进行许多修改和改型。
Claims (10)
1.一种用于信号识别装置的学习数据集的选择方法,所述方法用于所述信号识别装置,所述信号识别装置包括:
换能器,用于从测量信号提取包括参数的特征数据;和
竞争学习神经网络,包括具有输入神经元的输入层和具有输出神经元的输出层,所述输入神经元一一对应于通过所述换能器提取的特征数据的参数,所述输出神经元中的每个基于学习数据集通过权重矢量耦合到所述输入层的所有输入神经元以与任意类别相关,所述网络被配置成将通过所述换能器提取的特征数据与所述输出层的任意输出神经元相关以分类到任意类别中;
其中所述方法通过所述装置中进一步包括的选择器来处理,以便从数据集源中选择构成所述学习数据集的每个成员,所述数据集源的每个成员为通过所述换能器提取的特征数据并且预先被分配给任意一种类别,
所述方法包括步骤(A),所述步骤(A)在顺序地将源的各个成员输入到网络中以试图将源的每个成员与所述输出层的任意输出神经元相关的预处理之后执行,所述步骤(A)被重复直到所述输出层的每个输出神经元与类别中的单一类别相关,
所述步骤(A)包括以下步骤:
(a)判断所述输出层的输出神经元是否与所述输出层表示的所有类别中的不同类别相关;
(b)如果与不同类别相关,则关于所讨论的输出神经元计算与不同类别对应的源的每个成员的发散度;
(c)基于所述源的每个成员的发散度,计算不同类别的每个平均发散度;
(d)将与最小平均发散度的类别对应的源的各个成员包括在从源到学习数据集的选择中;以及
(e)从所述选择中排除与不同类别中的各个剩余类别对应的源的各个成员。
2.权利要求1的用于信号识别装置的学习数据集的选择方法,其中在步骤(b)的源的每个成员的发散度是在所讨论的成员和所讨论的输出神经元上的权重矢量之间的矢量差的量值。
3.一种用于信号识别装置的学习数据集的选择方法,所述方法用于所述信号识别装置,所述信号识别装置包括:
换能器,用于从测量信号提取包括参数的特征数据;和
竞争学习神经网络,包括具有输入神经元的输入层和具有输出神经元的输出层,所述输入神经元一一对应于通过所述换能器提取的特征数据的参数,所述输出神经元中的每个基于学习数据集通过权重矢量耦合到所述输入层的所有输入神经元以与任意类别相关,所述网络被配置成将通过所述换能器提取的特征数据与所述输出层的任意输出神经元相关以分类到任意类别中;
其中所述方法通过所述装置中进一步包括的选择器来处理,以便从数据集源中选择构成所述学习数据集的每个成员,所述数据集源的每个成员为通过所述换能器提取的特征数据并且预先被分配给任意一种类别,
所述方法包括步骤(A),所述步骤(A)在顺序地将源的各个成员输入到网络中以试图将源的每个成员与所述输出层的任意输出神经元相关的预处理之后执行,所述步骤(A)为计算源的每个成员的发散度的步骤,所述发散度是在所讨论的成员和与该成员相关的输出神经元上的权重矢量之间的矢量差的量值;以及
步骤(B),被重复直到包括在源中的每个成员的发散度的均值和方差变得分别低于预定均值阈值和方差阈值;
所述步骤(B)包括从源中排除发散度大于预定发散度阈值的各个成员的步骤。
4.权利要求3的用于信号识别装置的学习数据集的选择方法,进一步包括在作为所述预处理的第二预处理之前执行的第一预处理,
其中所述第一预处理包括以下步骤:
(a)顺序地将源的各个成员输入到网络中以试图将源的每个成员与所述输出层的任意输出神经元相关;
(b)计算所述输出层的每个输出神经元上的权重矢量和其它输出神经元中的每个输出神经元上的权重矢量之间的所有距离;
(c)基于所有计算的距离,按所述输出层的输出神经元来计算最小距离或总距离;以及
(d)排除与最小距离或总距离大于最小距离阈值或总距离阈值的各个输出神经元相关的源的各个成员。
5.一种用于信号识别装置的学习数据集的选择方法,所述方法用于所述信号识别装置,所述信号识别装置包括:
换能器,用于从测量信号提取包括参数的特征数据;和
竞争学习神经网络,包括具有输入神经元的输入层和具有输出神经元的输出层,所述输入神经元一一对应于通过所述换能器提取的特征数据的参数,所述输出神经元中的每个基于学习数据集通过权重矢量耦合到所述输入层的所有输入神经元以与任意类别相关,所述网络被配置成将通过所述换能器提取的特征数据与所述输出层的任意输出神经元相关以分类到任意类别中;
其中所述方法通过所述装置中进一步包括的选择器来处理,以便从数据集源中选择构成所述学习数据集的每个成员,所述数据集源的每个成员为通过所述换能器提取的特征数据并且预先被分配给任意一种类别,
所述方法包括:
步骤(A),关于源的各个成员计算源的两个成员之间的所有距离;
步骤(B),计算所有计算的距离的第一均值和第一方差;以及
针对包括在源的各个成员执行的步骤(C);
所述步骤(C)包括以下步骤:
(a)从源中选择成员以临时从源中排除该成员;
(b)关于在该成员被排除的源中所包括的各个剩余成员,计算源中两个成员之间的所有距离;
(c)计算所有计算距离的第二均值和第二方差;
(d)如果从第一均值到第二均值的变化量值或从第一方差到第二方差的变化量值分别大于预定的第一或第二阈值且第一均值和第一方差分别大于第二均值和第二方差,则从源中排除所讨论的成员并将第二均值和第二方差分别设置成第一均值和第一方差;以及
(e)如果从第一均值到第二均值的变化量值和从第一方差到第二方差的变化量值分别小于第一和第二阈值或者第一均值或第一方差分别小于第二均值或第二方差,则返回所讨论的成员到源中。
6.一种用于信号识别装置的学习数据集的选择方法,所述方法用于所述信号识别装置,所述信号识别装置包括:
换能器,用于从测量信号提取包括参数的特征数据;和
竞争学习神经网络,包括具有输入神经元的输入层和具有输出神经元的输出层,所述输入神经元一一对应于通过所述换能器提取的特征数据的参数,所述输出神经元中的每个基于学习数据集通过权重矢量耦合到所述输入层的所有输入神经元以与任意类别相关,所述网络被配置成将通过所述换能器提取的特征数据与所述输出层的任意输出神经元相关以分类到任意类别中;
其中所述方法通过所述装置中进一步包括的选择器来处理,以便从不同参数集中的用于先前所选的计算类型的参数集中选择最佳参数组合,所述不同参数集用于不同计算类型,所述不同参数集中的每个包括不同参数组合,所述不同计算类型中的每个用于从测量信号中提取特征数据,
所述方法包括:
步骤(A),基于计算类型和参数组合在用于所述计算类型的参数集的不同参数组合中的每个参数组合的情况下估计类别分类的精度;以及
步骤(B),基于所述步骤(A)的结果选择所述最佳参数组合;
所述步骤(A)包括为参数组合中的每个参数组合执行的步骤(a),
所述步骤(a)包括以下步骤:
(i)基于所讨论的计算类型和所讨论的参数组合,从每个测量信号提取被分配给任意一种类别的每个特征数据,以生成用于精度估计的数据集;
(ii)通过根据参数的顺序和值在二维平面上基本沿着一个轴和另一个轴分别设置与用于精度估计的数据集的每个参数对应的类别,生成二维图像;以及
(iii)通过计算与二维图像的每个元素对应的类别区域上的熵,在所讨论的计算类型和所讨论的参数组合的情况下估计类别分类的精度;
所述步骤(B)包括以下步骤:通过选择与由所述步骤(A)获得的每个精度的最高精度对应的参数组合来选择所述最佳参数组合。
7.一种用于信号识别装置的学习数据集的选择方法,所述方法用于所述信号识别装置,所述信号识别装置包括:
换能器,用于从测量信号提取包括参数的特征数据;和
竞争学习神经网络,包括具有输入神经元的输入层和具有输出神经元的输出层,所述输入神经元一一对应于通过所述换能器提取的特征数据的参数,所述输出神经元中的每个基于学习数据集通过权重矢量耦合到所述输入层的所有输入神经元以与任意类别相关,所述网络被配置成将通过所述换能器提取的特征数据与所述输出层的任意输出神经元相关以分类到任意类别中;
其中所述方法通过所述装置中进一步包括的选择器来处理,以便从不同计算类型中选择最佳计算类型并且还从不同参数集中的用于所选计算类型的参数集中选择最佳参数组合,所述不同计算类型中的每个被用于从测量信号中提取特征数据,所述不同参数集被用于不同计算类型,所述不同参数集中的每个包括不同参数组合;
所述方法包括:
步骤(A),从不同计算类型中顺序地选择计算类型;
步骤(B),基于所选计算类型和参数组合,在用于所选计算类型的参数集的不同参数组合的情况下估计类别分类的精度;以及
步骤(C),基于步骤(A)和(B)的结果选择所述最佳计算类型和用于计算类型的参数组合;
所述步骤(B)包括为参数组合中的每个参数组合执行的步骤(a),
所述步骤(a)包括以下步骤:
(i)基于所讨论的计算类型和所讨论的参数组合,从每个测量信号提取被分配给任意一种类别的每个特征数据,以生成用于精度估计的数据集;
(ii)通过根据参数的顺序和值在二维平面上基本沿着一个轴和另一个轴分别设置与用于精度估计的数据集的每个参数对应的类别,生成二维图像;以及
(iii)通过计算与二维图像的每个元素对应的类别区域上的熵,在所讨论的计算类型和所讨论的参数组合的情况下估计类别分类的精度;
所述步骤(C)包括以下步骤:通过选择与由步骤(A)和(B)获得的每个精度的最高精度对应的计算类型和参数组合来选择所述最佳计算类型和用于计算类型的参数组合。
8.权利要求6的用于信号识别装置的学习数据集的选择方法,其中通过对与二维图像的各个元素对应的类别区域的熵求和以得到总TH,来估计在步骤(iii)的精度,
所述总TH由下式给出:
其中L(i,j)是在二维平面上沿着所述一个轴的二维图像的第i个区域中的第j个类别区域的长度,np是用于精度估计的数据集的所有成员的数目,m是在第i个区域中的各个类别区域的数目,且n是二维图像沿着所述一个轴的所有区域的数目。
9.权利要求7的用于信号识别装置的学习数据集的选择方法,其中通过对与二维图像的各个元素对应的类别区域的熵求和以得到总TH,来估计在步骤(iii)的精度,
所述总TH由下式给出:
其中L(i,j)是在二维平面上沿着所述一个轴的二维图像的第i个区域中的第j个类别区域的长度,np是用于精度估计的数据集的所有成员的数目,m是在第i个区域的各个类别区域的数目,且n是二维图像沿着所述一个轴的所有区域的数目。
10.能够优化学习数据集的信号识别装置,包括:
换能器,用于从测量信号提取包括参数的特征数据;和
竞争学习神经网络,包括具有输入神经元的输入层和具有输出神经元的输出层,所述输入神经元一一对应于通过所述换能器提取的特征数据的参数,所述输出神经元中的每个基于学习数据集通过权重矢量耦合到所述输入层的所有输入神经元以与任意类别相关,所述网络被配置成将通过所述换能器提取的特征数据与所述输出层的任意输出神经元相关以分类到任意类别中;
其中所述装置进一步包括选择器,用于从不同参数集中的用于先前所选的计算类型的参数集中选择最佳参数组合,所述不同参数集用于不同计算类型,所述不同参数集中的每个包括不同参数组合,所述不同计算类型中的每个用于从测量信号中提取特征数据,
所述选择器被配置成:
(A)基于计算类型和参数组合,在用于计算类型的参数集的不同参数组合中的每个参数组合的情况下,估计类别分类的精度;以及
(B)在参数组合中的每个参数组合的情况下,基于类别分类的精度来选择所述最佳参数组合;
其中,当估计所述类别分类的精度时,所述选择器被配置成:
(a)基于所讨论的计算类型和所讨论的参数组合,从每个测量信号中提取分配给任意一种类别的每个特征数据以生成用于精度估计的数据集;
(b)通过根据参数的顺序和值在二维平面上基本沿着一个轴和另一个轴分别设置与用于精度估计的数据集的每个参数对应的类别,生成二维图像;以及
(c)通过计算与二维图像的每个元素对应的类别区域上的熵,在所讨论的计算类型和所讨论的参数组合的情况下,估计类别分类的精度;
其中,当选择所述最佳参数组合时,所述选择器被配置成,通过在参数组合的情况下选择与每个精度的最高精度对应的参数组合来选择所述最佳参数组合。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP212437/2006 | 2006-08-03 | ||
JP212436/2006 | 2006-08-03 | ||
JP2006212436A JP4848492B2 (ja) | 2006-08-03 | 2006-08-03 | 信号識別方法及び信号識別装置 |
JP232575/2006 | 2006-08-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101501711A true CN101501711A (zh) | 2009-08-05 |
Family
ID=39175624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA200780028919XA Pending CN101501711A (zh) | 2006-08-03 | 2007-08-02 | 用于信号识别装置的学习数据集的优化方法以及能够优化学习数据集的信号识别装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4848492B2 (zh) |
CN (1) | CN101501711A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105874477A (zh) * | 2014-01-23 | 2016-08-17 | 高通股份有限公司 | 配置稀疏神经网络 |
CN108123487A (zh) * | 2017-11-28 | 2018-06-05 | 广州供电局有限公司 | 分布式电源分类方法及系统 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5178471B2 (ja) * | 2008-11-19 | 2013-04-10 | 株式会社東芝 | 最適部分波形データ生成装置及び方法ならびにロープ状態判定装置及び方法 |
CN110291539A (zh) * | 2017-02-24 | 2019-09-27 | 欧姆龙株式会社 | 用于生成学习数据的处理方法、系统、程序和存储介质、以及生成学习数据的方法和系统 |
JP6882397B2 (ja) * | 2018-10-12 | 2021-06-02 | 株式会社東陽テクニカ | 異音等検出システム、装置、方法及びプログラム |
JP7142530B2 (ja) * | 2018-10-12 | 2022-09-27 | 株式会社かんでんエンジニアリング | 情報処理システム、情報処理方法、およびプログラム |
CN113657138B (zh) * | 2020-05-12 | 2024-05-21 | 哈尔滨工程大学 | 基于等势星球图的辐射源个体识别方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0492955A (ja) * | 1990-08-06 | 1992-03-25 | Nippon Telegr & Teleph Corp <Ntt> | ニューラルネットワークの学習方式 |
JP2951382B2 (ja) * | 1990-09-14 | 1999-09-20 | 株式会社エヌ・ティ・ティ・データ | 特徴抽出方法及びその実施装置 |
JPH0934861A (ja) * | 1995-07-17 | 1997-02-07 | Olympus Optical Co Ltd | クラスタ分類装置 |
JPH09230954A (ja) * | 1996-02-28 | 1997-09-05 | Olympus Optical Co Ltd | ベクトル規格化装置 |
-
2006
- 2006-08-03 JP JP2006212436A patent/JP4848492B2/ja not_active Expired - Fee Related
-
2007
- 2007-08-02 CN CNA200780028919XA patent/CN101501711A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105874477A (zh) * | 2014-01-23 | 2016-08-17 | 高通股份有限公司 | 配置稀疏神经网络 |
US10339447B2 (en) | 2014-01-23 | 2019-07-02 | Qualcomm Incorporated | Configuring sparse neuronal networks |
CN108123487A (zh) * | 2017-11-28 | 2018-06-05 | 广州供电局有限公司 | 分布式电源分类方法及系统 |
CN108123487B (zh) * | 2017-11-28 | 2019-10-18 | 广州供电局有限公司 | 分布式电源分类方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
JP2008040683A (ja) | 2008-02-21 |
JP4848492B2 (ja) | 2011-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101075824B1 (ko) | 신호 식별 장치용 학습 데이터 세트 최적화 방법 및 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치 | |
CN101501711A (zh) | 用于信号识别装置的学习数据集的优化方法以及能够优化学习数据集的信号识别装置 | |
CN107529222B (zh) | 一种基于深度学习的WiFi室内定位系统 | |
CN102118245A (zh) | 大规模网络安全事件的规模预测知识训练方法和预测方法 | |
CN111275108A (zh) | 基于生成对抗网络对局部放电数据进行样本扩展的方法 | |
CN111222553A (zh) | 机器学习模型的训练数据处理方法、装置和计算机设备 | |
CN106506192A (zh) | 一种识别网络关键节点的方法和装置 | |
CN109740672B (zh) | 多流特征距离融合系统与融合方法 | |
CN116560322B (zh) | 一种装配式生产线的生产控制方法及系统 | |
CN114529484B (zh) | 针对成像中直流分量变化的深度学习样本增强方法 | |
CN110007341B (zh) | 一种基于IfnoGAN和SSD模型的微地震有效信号的识别方法及系统 | |
CN110334080A (zh) | 一种实现自主学习的知识库构建方法 | |
CN109388169A (zh) | 参考电压产生器 | |
CN111126617B (zh) | 一种选择融合模型权重参数的方法、装置及设备 | |
CN112348224A (zh) | 一种车辆电瓶寿命的预测方法、装置、电子设备和存储介质 | |
CN110209804A (zh) | 目标语料的确定方法和装置、存储介质及电子装置 | |
CN106815129A (zh) | 云环境下软件过程的敏捷性度量方法 | |
CN114663329A (zh) | 一种点云质量评估方法及系统 | |
CN111199306A (zh) | 预测装置、预测方法及存储介质 | |
EP0567983B1 (en) | Learning type waveform recognizer | |
CN117874643B (zh) | 基于小数据集的转子故障贝叶斯网络诊断方法及系统 | |
CN118331224A (zh) | 一种基于数据驱动的控制系统关键部件故障诊断方法 | |
JP7166415B1 (ja) | 特徴量抽出装置 | |
JP3368619B2 (ja) | 時空間パターン分類装置 | |
RU2189069C2 (ru) | Способ адаптивной автоматической самонастройки многопараметрических систем автоматического управления на оптимальные условия |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
ASS | Succession or assignment of patent right |
Owner name: PANASONIC ELECTRIC WORKS SUNX CO., LTD. Free format text: FORMER OWNER: MATSUSHITA ELECTRIC WORKS LTD. Effective date: 20111019 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20111019 Address after: Aichi Applicant after: Panasonic Electric Works Sunx Co., Ltd. Address before: Osaka Japan Applicant before: Matsushita Electric Works, Ltd. |
|
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20090805 |