CN111832596B - 数据处理方法、电子设备及计算机可读介质 - Google Patents

数据处理方法、电子设备及计算机可读介质 Download PDF

Info

Publication number
CN111832596B
CN111832596B CN201910329950.1A CN201910329950A CN111832596B CN 111832596 B CN111832596 B CN 111832596B CN 201910329950 A CN201910329950 A CN 201910329950A CN 111832596 B CN111832596 B CN 111832596B
Authority
CN
China
Prior art keywords
data
shared
feature
implicit
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910329950.1A
Other languages
English (en)
Other versions
CN111832596A (zh
Inventor
杨嵩
黄健
杨非
刘子韬
黄琰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xintang Sichuang Educational Technology Co Ltd
Original Assignee
Beijing Xintang Sichuang Educational Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xintang Sichuang Educational Technology Co Ltd filed Critical Beijing Xintang Sichuang Educational Technology Co Ltd
Priority to CN201910329950.1A priority Critical patent/CN111832596B/zh
Priority to PCT/CN2020/086362 priority patent/WO2020216285A1/zh
Priority to US17/605,404 priority patent/US20220358362A1/en
Publication of CN111832596A publication Critical patent/CN111832596A/zh
Application granted granted Critical
Publication of CN111832596B publication Critical patent/CN111832596B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种数据处理方法、电子设备及计算机可读介质。数据处理方法包括:获取待处理数据的第一特征数据以及来源标识;根据来源标识确定自编码器中与其对应的第一不共享隐含单元,自编码器包括多个参数不共享的第一不共享隐含单元;将第一特征数据输入到确定的第一不共享隐含单元中进行噪声消除,并输出满足设定标准的第二特征数据;将第二特征数据输入自编码器的第一共享隐含单元中,通过第一共享隐含单元将第二特征数据映射到设定特征空间,并输出映射数据;将映射数据输入到自编码器的共享特征层,并输出通过共享特征层提取出的共性特征数据。该数据处理方法可以消除数据中噪声数据。

Description

数据处理方法、电子设备及计算机可读介质
技术领域
本申请涉及计算机技术领域,尤其涉及一种数据处理方法、电子设备及计算机可读介质。
背景技术
随着科技的发展和进步,机器学习越来越受到人们的重视,机器学习的发展也越来越迅速。在机器学习过程中,训练样本的好坏是影响机器学习模型性能至关重要的因素。
在有些场景中,作为训练样本的数据可能是相同类型但来源不同的异源数据。异源数据是指由于采集设备和/或采集环境不同导致其中包含的噪声数据不同,因此会导致训练出的机器学习模型受不同噪声数据的影响使性能下降。以语音数据为例,在录制语音数据时,会因硬件设施等录音设备的不同使录制的语音数据存在一定的差异,即异源语音数据,而且也会受到不同环境和噪声的干扰。这种异源数据会给机器学习模型提取某些共性特征带来干扰,进而影响到机器学习模型的训练,造成性能的下降。
对于该问题,传统的处理方法是尽可能多地收集异源数据用来训练机器学习模型,并使训练样本覆盖更多的来源,增大训练数据量,提高机器学习模型的鲁棒性。然而,这种处理方法会不可避免地带来总体性能的下降,且收集大量训练样本成本很大,收集难度也会增加。
发明内容
本申请的目的在于提出一种数据处理方法、电子设备及计算机可读介质,用于解决上述的部分或全部问题。
第一方面,本申请实施例提供一种数据处理方法,所述方法包括:获取待处理数据的第一特征数据和来源标识;根据所述来源标识,确定自编码器中与其对应的第一不共享隐含单元,所述自编码器包括多个参数不共享的第一不共享隐含单元;将所述第一特征数据输入到确定的所述第一不共享隐含单元中进行噪声消除,并输出满足设定标准的第二特征数据;将所述第二特征数据输入所述自编码器的第一共享隐含单元中,通过所述第一共享隐含单元将所述第二特征数据映射到设定特征空间,并输出映射数据;将所述映射数据输入到所述自编码器的共享特征层,并输出通过所述共享特征层提取出的所述第一特征数据中的共性特征数据。
可选地,在本申请的任一实施例中,所述输出满足设定标准的第二特征数据,包括:输出满足第一设定维度的第二特征数据,其中,所述第一设定维度与所述第一共享隐含单元首层第一共享隐含层的特征维度相同。
可选地,在本申请的任一实施例中,所述将所述第二特征数据输入所述自编码器的第一共享隐含单元中,通过所述第一共享隐含单元将所述第二特征数据映射到设定特征空间,并输出映射数据,包括:将所述第二特征数据输入到所述第一共享隐含单元中,所述第一共享隐含单元对所述多个第一不共享隐含单元的输出共享;通过所述第一共享隐含单元中各第一共享隐含层的权重矩阵和偏置向量将所述第二特征数据映射到所述设定特征空间,并输出所述映射数据。
可选地,在本申请的任一实施例中,所述将所述映射数据输入到所述自编码器的共享特征层,并输出通过所述共享特征层提取出的所述特征数据中的共性特征数据,包括:将所述映射数据输入到所述自编码器的共享特征层,由所述共享特征层根据所述映射数据、所述共享特征层的权重矩阵和偏置向量计算获得所述特征数据中的共性特征数据。
可选地,在本申请的任一实施例中,所述自编码器包括编码器、共享特征层和解码器,所述编码器包括所述第一共享隐含单元和所述多个第一不共享隐含单元,所述解码器包括第二共享隐含单元和多个第二不共享隐含单元,所述第二共享隐含单元与所述第一共享隐含单元关于所述共享特征层对称,各所述第二不共享隐含单元与对应的所述第一不共享隐含单元关于所述共享特征层对称;在所述获取待处理数据的第一特征数据以及所述第一特征数据对应的来源标识之前,所述方法还包括:使用从多个数据来源获取的训练样本训练所述自编码器。
可选地,在本申请的任一实施例中,在所述使用从多个数据来源获取的训练样本训练所述自编码器,之前,所述方法还包括:根据所有训练样本中各数据来源对应的训练样本数量,设置各所述数据来源对应的所述第一不共享隐含单元的维度,以使任意两个数据来源对应的训练样本中,数量多的训练样本对应的第一不共享隐含单元的维度大于数量少的训练样本对应的第一不共享隐含单元的维度。
可选地,在本申请的任一实施例中,所述使用从多个数据来源获取的训练样本训练所述自编码器,包括:获取训练样本的第一特征数据及对应的来源标识,并将所述第一特征数据输入到所述编码器中与所述来源标识对应的第一不共享隐含单元中;根据所述来源标识,通过所述编码器的第一不共享隐含单元和第一共享隐含单元,以及,所述共享特征层对所述第一特征数据进行处理,获得所述第一特征数据对应的共性特征数据;将所述共性特征数据输入所述解码器,并获取所述解码器输出的重构数据;根据所述重构数据对所述编码器中参数进行迭代训练,直至满足训练终止条件。
可选地,在本申请的任一实施例中,所述根据所述重构数据对所述编码器中参数进行迭代训练,直至满足训练终止条件,包括:根据预设的损失函数、所述训练样本的第一特征数据和所述重构数据计算损失值,并根据所述损失值调整与所述来源标识对应的第一不共享隐含单元的参数和所述第一共享隐含单元的参数;返回获取训练样本的第一特征数据及对应的来源标识的步骤继续执行,直至满足训练终止条件。
第二方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;计算机可读介质,配置为存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述第一方面中所述的方法。
第三方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面中所述的方法。
本申请提供的数据处理方法、电子设备及计算机可读介质,采用自编码器对各种不同数据来源的待处理数据进行处理,去除各待处理数据中的噪声数据,并从中提取出共性特征数据,用作后续其他神经网络模型的训练样本,解决现有技术中神经网络模型采用不同数据来源的训练样本直接进行训练,导致训练出的神经网络模型性能不好的问题。针对某个数据来源的待处理数据,使用与其数据来源对应的第一不共享隐含单元对其进行噪声消除,确保噪声消除效果,并输出第二特征数据;通过共享隐含单元对第二特征数据进行处理,将其映射到设定特征空间,并通过共享特征层提取出其中的共性特征数据。这样,不管数据来源于哪里,来源是否相同,都可以方便准确地提取出其中的共性特征数据,以作为后续其他神经网络模型的训练样本,从而解决了现有技术中异源数据对应的训练样本收集成本高、训练出的神经网络模型性能不好的问题。
附图说明
为了更清楚地说明本申请或现有技术中的技术方案,下面将实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本申请实施例一中数据处理方法流程示意图。
图2为本申请实施例二中自编码器的结构示意图。
图3为本申请实施例二中数据处理方法流程示意图。
图4为本申请实施例三中数据处理装置的结构框图。
图5为本申请实施例四中数据处理装置的结构框图。
图6为本申请实施例五中电子设备的硬件结构。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅配置为解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
实施例一
图1为本申请实施例一中数据处理方法流程示意图。如图1所示,所述方法包括:
步骤S102:获取待处理数据的第一特征数据和来源标识。
在本实施例中,待处理数据可以是任意类型的数据,例如,音频数据或图像数据等。针对不同类型的待处理数据,对其进行特征提取获得第一特征数据,所述第一特征数据的类型和提取方式可能不同。本领域技术人员可以根据需求采用适当的方式提取需要的第一特征数据,本实施例对此不作限定。第一特征数据可以是向量、矩阵或其他形式。
例如,若待处理数据为语音数据,则第一特征数据可以是语音声学特征数据,如韵律、频谱和音质等。可以采用MFCC(Mel Frequency Cepstral Coefficents)提取方式提取语音声学特征数据。
又例如,若待处理数据为包含人脸的图像数据,则第一特征数据可以是HOG(Histogram of Oriented Gradient,方向梯度直方)特征、LBP(Local Binary Pattern,局部二值模式)特征和Haar特征等。针对不同的第一特征数据可以采用适当方式进行特征提取获得。
来源标识用于指示对应的待处理数据的来源,以区分异源的待处理数据。例如,若待处理数据是通过采集设备A采集的数据,其与通过采集设备B采集的数据会具有不同的来源标识,等等。不同的数据来源可以是采用设备不同、采集环境不同等。本领域技术人员可以根据需要设置适当的标识作为来源标识,本实施例对此不作限定。
步骤S104:根据所述来源标识,确定自编码器中与其对应的第一不共享隐含单元,所述自编码器包括多个参数不共享的第一不共享隐含单元。
自动编码器是一种无监督的神经网络模型,它可以学习到输入数据的隐含特征,这称为编码(coding),同时用学习到的新特征可以重构出原始输入数据,称之为解码(decoding)。在实际应用中,本领域技术人员可以根据需要配置具有适当网络结构的自编码器。
在本实施例中,以自编码器为基于DNN神经网络算法(深度神经网络算法)的神经网络为例,该自编码器包括多个第一不共享隐含单元、一个共享隐含单元和共享特征层。当然,在其他实施例中,自编码器可以根据需要包括其他单元。
自编码器中的每个第一不共享隐含单元用于对应处理一种数据来源的第一特征数据。如,第一不共享隐含单元A用于处理来源标识为1的第一特征数据,第二不共享隐含单元B用于处理来源标识为2的第二特征数据,等等。
各第一不共享隐含单元均可以是由一个或多个隐含层(hidden layer)构成的单元,其不共享是指不同的第一不共享隐含单元的参数是不共享的,各第一不共享隐含单元中的参数可以是通过机器学习方式独立学习出的参数。这样可以确保每个第一不共享隐含单元对各自对应的数据来源的第一特征数据都具有较好的处理效果。
本领域技术人员可以采用任何适当的方式指示各第一不共享隐含单元对应的数据来源。例如,为各第一不共享隐含单元设置数据源标识,以指示其对应的数据来源。数据源标识可以是数字、字母、哈希值(hash)等等。
针对获取的待处理数据的第一特征数据,可以根据来源标识与数据源标识间的匹配关系确定第一特征数据对应的第一不共享隐含单元。
自编码器中包括一个第一共享隐含单元,该第一共享隐含单元对所有数据来源的待处理数据共享。第一共享隐含单元是由一个或多个隐含层构成的单元,其连接在各第一不共享隐含单元之后,用于对各第一不共享隐含单元的输出数据进行处理。
共享特征层连接在第一共享隐含单元之后,其对所有数据来源的待处理数据共享,以提取待处理数据的第一特征数据中的共性特征数据。
步骤S106:将所述第一特征数据输入到确定的所述第一不共享隐含单元中进行噪声消除,并输出满足设定标准的第二特征数据。
在本实施例中,第一不共享隐含单元用于对输入的第一特征数据进行噪声消除,去除第一特征数据中由于采集设备、采集环境等引入的噪声数据,并输出满足设定标准的第二特征数据。
由于不同数量来源对应的第一不共享隐含单元中的参数是不共享的,因此,各第一不共享隐含单元可以针对性地对对应的数据来源的第一特征数据进行噪声消除,以保证噪声消除效果。
本领域技术人员可以根据需要设置适当的标准,使第一不共享隐含单元输出满足该设定标准的第二特征数据。例如,设定标准可以用于定义第二特征数据的类型,如为向量或矩阵等,也可以用于定义第二特征数据的维度、是否采用稀疏表示等。
步骤S108:将所述第二特征数据输入所述自编码器的第一共享隐含单元中,通过所述第一共享隐含单元将所述第二特征数据映射到设定特征空间,并输出映射数据。
第一共享隐含单元用于对第二特征数据进行处理,由于该第一共享隐含单元对所有数据来源的第一不共享隐含单元共享,因此,各第一不共享隐含单元输出的第二特征数据经过第一共享隐含单元处理后,被映射到同一设定特征空间中,并输出映射数据,以便于后续进行共性特征提取。
该设定特征空间可以是根据第一共享隐含单元确定的特征空间,例如,其可以是空间维度与第一共享隐含单元中最后一个第一共享隐含层的维度相同的空间。本领域技术人员可以根据需要配置第一共享隐含单元,以使特征空间为需要的特征空间。
经映射输出的映射数据可以是维度与所述最后一个第一共享隐含层的维度相同的向量或矩阵。
步骤S110:将所述映射数据输入到所述自编码器的共享特征层,并输出通过所述共享特征层提取出的所述第一特征数据中的共性特征数据。
共享特征层用于对输入的映射数据进行处理,以提取出第一特征数据中的共性特征数据。
该共性特征数据是指同一类型的待处理数据中该类型共性的特征数据。例如,共性特征数据可以是采用向量或矩阵形式表示的语音数据中的语音声学特征数据,通过共享特征层提取出的共性特征数据中保留了待处理数据中共性的特征,且不包括噪声数据,因此,该共性特征数据可以作为后续其他神经网络模型的训练样本使用,从而解决现有技术中使用异源数据作为训练样本训练神经网络模型时,由于异源数据中各种各样噪声数据导致训练的神经网络模型性能差的问题。
通过本实施例,采用自编码器对各种不同数据来源的待处理数据进行处理,去除各待处理数据中的噪声数据,并从中提取出共性特征数据,用作后续其他神经网络模型的训练样本,解决现有技术中神经网络模型采用不同数据来源的训练样本直接进行训练,导致训练出的神经网络模型性能不好的问题。针对某个数据来源的待处理数据,使用与其数据来源对应的第一不共享隐含单元对其进行噪声消除,确保噪声消除效果,并输出第二特征数据;通过共享隐含单元对第二特征数据进行处理,将其映射到设定特征空间,并通过共享特征层提取出其中的共性特征数据。这样,不管数据来源于哪里,来源是否相同,都可以方便准确地提取出其中的共性特征数据,以作为后续其他神经网络模型的训练样本,从而解决了现有技术中异源数据对应的训练样本收集成本高、训练出的神经网络模型性能不好的问题。
实施例二
本实施例中,为了清楚地对本发明实施例提供的数据处理方案进行说明。首先以一个具体实例对自编码器的结构进行示例性说明。
如图2所示,其为一种自编码器的结构框图。该自编码器包括编码器、共享特征层和解码器,其中,编码器结构与解码器结构关于共享特征层对称。
其中,所述编码器包括多个第一不共享隐含单元和第一共享隐含单元。多个第一不共享隐含单元并列设置,用于处理不同数据来源的第一特征数据的特征,以消除噪声影响,并获得具有满足设定标准的第二特征数据。
第一共享隐含单元设置于多个第一不共享隐含单元之后,用于将第二特征数据映射到相同的设定特征空间,生成映射数据,进而通过设置于第一共享隐含单元之后的共享特征层提取映射数据的共性特征数据。
解码器包括第二不共享隐含单元和多个第二不共享隐含单元。其中,第二共享隐含单元连接在共享特征层之后,且第二共享隐含单元的结构与第一共享隐含单元的结构关于共享特征层对称,其中的参数与第一共享隐含单元中对应位置的参数一致。即第二共享隐含单元的首个第二共享隐含层与第一共享隐含单元中的最后一个第一共享隐含层一致。其用于对共性特征数据进行反向映射,输出反映射数据。
多个所述第二不共享隐含单元连接在第二共享隐含层之后。第二不共享隐含单元与第一不共享隐含单元关于所述共享特征层对称,其中的参数与对应的第一不共享隐含单元中对应位置的参数一致。即第二不共享隐含单元的首个第二不共享隐含层与对应的第一不共享隐含单元的最后一个第一不共享隐含层一致。各第二不共享隐含单元用于将对应数据来源的反映射数据重构成为重构数据。
基于上述结构的自编码器,本申请实施例二的数据处理方法如图3所示,所述方法包括:
步骤S200:根据所有训练样本中各数据来源对应的训练样本数量,对自编码器中的编码器进行设置。
包括:根据所有训练样本中各数据来源对应的训练样本数量,设置各所述数据来源对应的所述第一不共享隐含单元维度,以使任意两个数据来源对应的训练样本中,数量多的训练样本对应的第一不共享隐含单元的维度大于数量少的训练样本对应的第一不共享隐含单元的维度。
现有技术中在采用不同数据来源的训练样本直接对自编码器进行训练时,由于不同数据来源的训练样本中包含不同的噪声数据,而且不同的数据来源的训练样本数量不一,一些数据来源的训练样本数据量大,一些数据来源的训练样本的数据量小,导致使用这些训练样本训练出的自编码器输出结果时会偏向于数据量较大训练样本的数据来源场景,而影响训练出的自编码器去除噪声的性能。
根据各数据来源对应的训练样本数量设置自编码器各所述数据来源对应的所述第一不共享隐含单元维度,可以防止训练出的自编码器受数据量较大的训练样本影响,保证训练的自编码器可以对任意数据来源的待处理数据均具有较好的噪声消除效果,且能够准确地提取出待处理数据中的共性特征数据。通过训练的自编码器的共享特征层提取出的共性特征数据可以作为其他神经网络模型的训练样本使用,由于该共性特征数据中不包含噪声数据,因此可以使得使用该共性特征数据训练的神经网络模型具有较好的性能。
在一具体实现中,对于不同数据来源对应的第一不共享隐含单元中的各第一不共享隐含层的隐含节点数,可以按照该数据来源的训练样本数据量的大小进行设置。一个第一不共享隐含单元中包括多个第一不共享隐含层时,后一第一不共享隐含层的隐含节点数小于前一第一不共享隐含层的隐含节点数。这样可以起到降低特征维度的作用。第一不共享隐含单元中最后一个第一不共享隐含层的隐含节点数与第一共享隐含单元中首个第一共享隐含层的隐含节点数相同,以使第一不共享隐含单元输出的第二特征数据的维度满足第一共享隐含单元的输入要求,从而无需额外处理即可将第二特征数据作为第一共享隐含单元的输入数据使用。
步骤S201:使用从多个数据来源获取的训练样本训练所述自编码器。
在一具体实施方式中,所述步骤S201包括以下子步骤:
子步骤S2011:获取训练样本的第一特征数据及对应的来源标识,并将所述第一特征数据输入到所述编码器中与所述来源标识对应的第一不共享隐含单元中。
例如,通过特征提取的方式从训练样本中获取第一特征数据,并获取训练样本中预设的来源标识。针对不同类型的训练样本,其提取的第一特征数据可能不同。
确定对应的第一不共享隐含单元时,可以根据预设的来源标识与第一不共享隐含单元的匹配关系,确定与该来源标识对应的第一不共享隐含单元。或者,若第一不共享隐含单元上设置有数据源标识,则可以通过比对来源标识与数据源标识是否一致的方式确定对应的第一不共享隐含单元,并将第一特征数据输入到该对应的第一不共享隐含单元中。
子步骤S2012:根据所述来源标识,通过所述编码器的第一不共享隐含单元和第一共享隐含单元,以及,所述共享特征层对所述第一特征数据进行处理,获得所述第一特征数据对应的共性特征数据。
本步骤的实现过程可以采用前述实施例一中步骤S104~步骤S110的实现过程,本实施例对此不再赘述。
子步骤S2013:将所述共性特征数据输入所述解码器,并获取所述解码器输出的重构数据。
在本实施例中,将共性特征数据输入到解码器的第二共享隐含单元中,由于第二共享隐含单元与第一共享隐含单元关于共享特征层对称,即第二共享隐含单元中的首个第二共享隐含层的结构与第一共享隐含单元中的最末个第一共享隐含层的结构相同,故而在第二共享隐含单元中,其对共性特征数据进行与第一共享隐含单元相反的反向处理,并输出与第二特征数据对应的反映射数据,以使与该反映射数据与所述第二特征数据尽可能接近。
获取反映射数据后,将其输入到与数据来源对应的第二不共享隐含单元中,由第二不共享隐含单元对其进行处理并获得输出的对应于第一特征数据对应的重构数据,以使重构数据与第一特征数据尽可能接近。
子步骤S2014:根据所述重构数据对所述编码器中参数进行迭代训练,直至满足训练终止条件。
在本实施例中,所述子步骤S2014包括:根据预设的损失函数、所述训练样本的第一特征数据和所述重构数据计算损失值,并根据所述损失值调整与所述来源标识对应的第一不共享隐含单元的参数和所述第一共享隐含单元的参数,返回获取训练样本的第一特征数据及对应的来源标识的步骤继续执行,直至满足训练终止条件。
其中,预设的损失函数可以为:
Figure BDA0002037377950000081
其中,loss为损失值。s指第s个数据来源,s的取值范围为1到S,S指数据来源总量。n指第s个数据来源的第n个训练样本,n的取值范围为1到Ns,Ns为第s个数据来源的训练样本总量。vsn是第一特征数据。v′sn是重构数据。Wsm是编码器中第s个数据来源对应的第一不共享隐含层中第m个第一不共享隐含层的权重矩阵,m的取值范围为1到M,M指第s个数据来源对应的第一不共享隐含单元包含的第一不共享隐含层的总层数。Wk是编码器中第一共享隐含单元中第k个第一共享隐含层的权重矩阵,k的取值范围为1到K,K指第一共享隐含单元包含的第一共享隐含层的总层数。W是共享特征层的权重矩阵。λ是权重衰减项,其取值在0到1之间。‖Wsm||指求Wsm的L2范数,‖Wk||指求Wk的L2范数,‖W||指求W的L2范数。该损失函数中的第一项用于计算均方误差,后三项加入L2正则化防止自编码器过拟合。
整个自编码器使用如前述公式的最小化损失函数进行训练,即训练得到自编码器的参数Wsm、Wk、W、bsm、bk和b等。
本领域技术人员可以根据需要配置适当的训练终止条件。例如,训练终止条件可以是训练次数到底设定值,或损失值小于设定值等等。
通过上述过程,完成了自编码器的训练。训练完成后的自编码器可以在后续长期使用,例如,通过训练完成的自编码器中的编码器和共享特征层处理待处理数据的第一特征数据,以获得共性特征数据。本实施例中一种通过训练完成的自编码器中的编码器和共享特征层获取共性特征数据的过程如步骤S202~步骤S206所述。
步骤S202:获取待处理数据的第一特征数据以及来源标识。
此步骤与上述实施例一致,详见上述实施例一,此处不再赘述。
步骤S203:根据所述来源标识,确定自编码器中与其对应的第一不共享隐含单元,所述自编码器包括多个参数不共享的第一不共享隐含单元。
此步骤与上述实施例一致,详见上述实施例一,此处不再赘述。
步骤S204:将所述第一特征数据输入到确定的所述第一不共享隐含单元中进行噪声消除,并输出满足设定标准的第二特征数据。
此步骤与上述实施例一致,详见上述实施例一,此处不再赘述。
需要说明的是,在本实施例中,所述输出满足设定标准的第二特征数据,包括:输出满足第一设定维度的第二特征数据,其中,所述第一设定维度与所述第一共享隐含单元首层第一共享隐含层的特征维度相同。这样将输出的第二特征数据作为输入数据输入到第一共享隐含单元中时更加方便,无需进行额外处理,可以防止额外处理造成的特征丢失。
步骤S205:将所述第二特征数据输入所述自编码器的第一共享隐含单元中,通过所述第一共享隐含单元将所述第二特征数据映射到设定特征空间,并输出映射数据。
在本实施例中,所述步骤S205包括:将所述第二特征数据输入到所述第一共享隐含单元中,所述第一共享隐含单元对所述多个第一不共享隐含单元的输出共享;通过所述第一共享隐含单元中各第一共享隐含层的权重矩阵和偏置向量将所述第二特征数据映射到所述设定特征空间,并输出所述映射数据。
使用第一共享隐含单元中的各第一共享隐含层的权重矩阵和偏置向量对第二特征数据进行处理,可以将经过不同第一不共享隐含单元输出的第二特征数据映射到同一设定特征空间中,以便于后续共享特征层提取共性特征数据。
在本实施例中,映射数据为根据最后一个第一共享隐含层的权重矩阵、偏置向量和第二特征数据计算后获得的数据。
当然,在其他实施例中,本领域技术人员可以根据需要采用其他方式将各第二特征数据映射到设定特征空间。
步骤S206:将所述映射数据输入到所述自编码器的共享特征层,并输出通过所述共享特征层提取出的所述第一特征数据中的共性特征数据。
在本实施例中,所述步骤S206包括:将所述映射数据输入到所述自编码器的共享特征层,由所述共享特征层根据所述映射数据、所述共享特征层的权重矩阵和偏置向量计算获得所述特征数据中的共性特征数据。
该共享特征层的权重矩阵和偏置向量可以是通过前述步骤S201训练后获得的权重矩阵和偏置向量。
在共享特征层,根据所述映射数据、所述共享特征层的权重矩阵和偏置向量计算获得所述特征数据中的共性特征数据可以确保共性特征数据提取效果,进而可以确保在使用提取的共性特征数据作为训练样本对其他神经网络模型进行训练时的效果。
通过本实施例,一方面,采用自编码器对各种不同数据来源的待处理数据进行处理,去除各待处理数据中的噪声数据,并从中提取出共性特征数据,用作后续其他神经网络模型的训练样本,解决现有技术中神经网络模型采用不同数据来源的训练样本直接进行训练,导致训练出的神经网络模型性能不好的问题。针对某个数据来源的待处理数据,使用与其数据来源对应的第一不共享隐含单元对其进行噪声消除,确保噪声消除效果,并输出第二特征数据;通过共享隐含单元对第二特征数据进行处理,将其映射到设定特征空间,并通过共享特征层提取出其中的共性特征数据。这样,不管数据来源于哪里,来源是否相同,都可以方便准确地提取出其中的共性特征数据,以作为后续其他神经网络模型的训练样本,从而解决了现有技术中异源数据对应的训练样本收集成本高、训练出的神经网络模型性能不好的问题。
另一方面,该自编码器在训练时可以包括解码器,在训练完成后的后续使用中则可以不包括解码器,有助于减小使用时的计算量。解码器利用共享特征层提取的共性特征数据重构不同数据来源的数据,并输出重构数据。通过第一特征数据和对应的重构数据的偏差作为损失函数训练自编码器。
自编码器训练完成之后,将不同数据来源的待处理数据输入到自编码器中,将其共享特征层的输出作为该待处理数据的共性特征数据。提取共性特征数据的过程中,通过自编码器去除待处理数据中与共性特征不相关的噪声信息,可以消除因数据来源不同而对提取出的共性特征造成的影响,从而提高后续使用该共性特征数据对其他神经网络模型训练的准确性。
提取出的共性特征数据的维度(H)可以设置为小于第一特征数据的维度(F)(即H<F),以实现自动特征降维的目的。
此外,根据不同数据来源的训练样本数据量的不同,可以配置对应的第一不共享隐含层的维度,以便综合考虑训练样本数据量对自编码器性能的影响,不使训练的自编码器偏向于数据量较大的数据来源场景。
下面结合具体使用场景对自编码器的训练过程进行说明:
本使用场景中,共有S个数据来源,每个数据来源对应一个第一不共享隐含单元。设:第s个数据来源中共包含Ns个训练样本,s的取值范围为1到S。第s个数据来源对应的第一不共享隐含单元记作Bs。第一不共享隐含单元Bs中共包含M个第一不共享隐含层,其中,第m个第一不共享隐含层的节点数(即该第一不共享隐含层的维度)记作Dsm,m的取值范围为1到M。
训练过程具体包括:
步骤A:获取的第s个数据来源中的第n个数据记作训练样本A的第一特征数据。n的取值范围为1到Ns。训练样本A的第一特征数据记作vsn,vsn为向量或矩阵,在本使用场景中,其为向量,维度为F×1,用于对训练样本A的特征进行表征。
步骤B:将训练样本A的第一特征数据vsn输入第一不共享隐含层Bs中。
第一不共享隐含层Bs对第一特征数据vsn的处理过程可以表示为:
当m=1时,该层第一不共享隐含层对输入数据的处理表示为:
zs1n=Ws1vsn+bs1
hs1n=f(zs1n)
其中,
Figure BDA0002037377950000121
是第一不共享隐含层Bs的第1个第一不共享隐含层的权重矩阵,其维度为Ds1×F。
Figure BDA0002037377950000131
是第一不共享隐含层Bs的第1个第一不共享隐含层的偏置向量,维度为Ds1
Zs1n指示根据该层权重矩阵和偏置向量计算出的结果。
f(·)为是线性函数,例如为sigmoid函数,用于对进行降维处理。
hs1n是第s个数据来源的第n条数据对应的第1个第一不共享隐含层的隐向量表示,维度为Ds1×1。
当1<m<M时,该层第一不共享隐含层对输入数据的处理表示为:
zsmn=Wsmhs(m-1)n+bsm
hsmn=f(zsmn)
其中,
Figure BDA0002037377950000132
是第s个数据来源对应的第m个第一不共享隐含层的权重矩阵,维度为Dsm×Ds(m-1)
Figure BDA0002037377950000133
是第s个数据来源的第m个第一不共享隐含层的偏置向量,维度为Dsm
Zsmn指示根据该层权重矩阵和偏置向量计算出的结果。
hsmn是第s个数据来源的第n条数据对应的第m个第一不共享隐含层的的隐向量表示,维度为Dsm×1。
当m=M时,该层第一不共享隐含层对输入数据的处理表示为:
zsMn=WsMhs(M-1)n+bsM
hsMn=f(zsMn)
其中,
Figure BDA0002037377950000141
是第s个数据来源对应的第M个第一不共享隐含层的权重矩阵,维度为H×Ds(M-1)
Figure BDA0002037377950000142
是第s个数据来源对应的第M个第一不共享隐含层的偏置向量,维度为H。
ZsMn指示根据该层权重矩阵和偏置向量计算出的结果。
hsMn是第s个数据来源的第n条数据对应的第M个第一不共享隐含层的隐向量表示,也即编码器的第一不共享隐含单元输出的第二特征数据,维度为H×1。
步骤C:将第一不共享隐含单元输出的第二特征数据hsMn输入第一共享隐含单元中。
在本使用场景中,设第一共享隐含单元共包括K个第一共享隐含层,且各第一共享隐含层的维度相同,并为H,即各第一共享隐含层的隐含节点数都相同,且均为H。
则,将第二特征数据hsMn输入第一共享隐含单元中,第一共享隐含单元中的第k(k的取值为1到K)个第一共享隐含层对输入数据的处理过程为:
当k=1时:该层第一共享隐含层对输入数据的处理表示为:
ys1n=W1hsMn+b1
gs1n=f(ys1n)
其中,
Figure BDA0002037377950000151
是第1个第一共享隐含层的权重矩阵,维度为H×H。
Figure BDA0002037377950000152
是第1个第一共享隐含层的偏置向量,维度为H。
ys1n指示根据该层权重矩阵和偏置向量计算出的结果。
f(ys1n)为是线性函数,例如为sigmoid函数,用于对进行降维处理。
gs1n是第s个数据来源的第n条数据对应的第1个第一共享隐含层的隐向量表示,维度为H×1。
当k>1时,该层第一共享隐含层对输入数据的处理表示为:
yskn=Wkgskn+bk
gskn=f(yskn)
其中,
Figure BDA0002037377950000153
是第1个第一共享隐含层的权重矩阵,维度为H×H。
Figure BDA0002037377950000154
是第1个第一共享隐含层的偏置向量,维度为H。
yskn指示根据该层权重矩阵和偏置向量计算出的结果。
gskn是第s个数据来源的第n条数据的第k个第一共享隐含层的隐向量表示,维度为H×1。
各第一共享隐含层的参数对于不同数据来源共享,第一共享隐含单元将经过第一不共享隐含单元转换的第二特征数据映射到相同的设定特征空间。对于第s个数据来源的第n条训练样本A的编码器输出为gsKn(即映射数据),即第K个第一共享隐含层输出的数据,维度为H×1。
步骤D:将第一共享隐含单元输出的映射数据gsKn输入共享特征层中。
共享特征层用于提取共性特征数据,设共享特征层的隐含节点数为H,与编码器的第一共享隐含单元的隐含节点数相同,则将gsKn输入共享特征层,其对输入数据的处理可以表示为:
ysn=WgsKn+b
gsn=f(ysn)
其中,
Figure BDA0002037377950000161
是共享特征层的权重矩阵,维度为H×H。
Figure BDA0002037377950000162
是共享特征层的偏置向量,维度为H。
ysn指示根据该层权重矩阵和偏置向量计算出的结果。
gsn是第s个数据来源的第n条数据的共性特征数据的隐向量表示,维度为H×1。
步骤E:将共性特征数据gsn输入解码器中,获取解码器输出的重构数据。
解码器的输入是共享特征层的输出,即gsn,将gsn输入解码器中,经过解码器中的第二共享隐含单元的处理,将第二共享隐含单元的输出数据输入解码器中与第s个数据来源对应的第二不共隐含单元中,获取输出数据作为解码器的输出,记作v′sn,v′sn为解码器根据gsn重构的与vsn对应的重构数据,v′sn的维度与vsn相同,均为F×1;解码器的作用是为了从gsn得到v′sn以尽可能多地重建输入特征vsn
步骤F:获取重构数据v′sn后,根据损失函数、重构数据v′sn和第一特征数据vsn,计算损失值loss。
损失函数如下:
Figure BDA0002037377950000171
其中,Wsm是编码器中第s个数据来源对应的第一不共享隐含层中第m个第一不共享隐含层的权重矩阵。Wk是编码器中第一共享隐含单元中第k个第一共享隐含层的权重矩阵。W是共享特征层的权重矩阵。
步骤G:根据计算的损失值loss调整参数Wsm、Wk、W、bsm、bk和b等。并返回步骤A,继续执行,直至满足终止条件。
本领域技术人员可以采用合适的方式调整参数Wsm、Wk、W、bsm、bk和b。调整完成后返回步骤A,继续执行,直至完成训练。
其中,Wsm是编码器中第s个数据来源对应的第一不共享隐含层中第m个第一不共享隐含层的权重矩阵。Wk是编码器中第一共享隐含单元中第k个第一共享隐含层的权重矩阵。W是共享特征层的权重矩阵。bsm是编码器中第s个数据来源对应的第一不共享隐含层中第m个第一不共享隐含层的偏置向量。bk是编码器中第一共享隐含单元中第k个第一共享隐含层的偏置向量。b是共享特征层的偏置向量。
需要说明的是,在本使用场景中,各第一不共享隐含单元中各第一不共享隐含层的参数是独立学习出的参数,第一不共享隐含单元间的参数不共享。第一共享隐含单元中的各第一共享隐含层的参数也是独立学习出的参数。
第二共享隐含单元中的参数配置为与第一共享隐含单元中对应位置的参数一致。各第二不共享隐含单元中的参数配置为与对应的第一不共享隐含单元中对应位置的参数一致。
通过上述步骤可以训练完成对自编码器的训练。训练完成的自编码器可以用于实现前述实施例一或实施例二的方法,以消除不同数据来源的待处理数据中的噪声数据,并提取其中的共性特征数据作为其他神经网络模型的训练样本使用,从而解决现有技术中直接使用异源数据训练神经网络模型使得训练出的神经网络模型性能不好,且训练样本收集成本高的问题。
需要说明的是,在使用训练完成的自编码器提取共性特征数据时,可以仅使用自编码器的编码器和共享特征层,或者也可以使用完整的自编码器。
实施例三
图4为本申请实施例三中数据处理装置的结构框图。如图4所示,数据处理装置包括:获取模块402,用于获取待处理数据的第一特征数据以及来源标识;确定模块404,用于根据所述来源标识,确定自编码器中与其对应的第一不共享隐含单元,所述自编码器包括多个参数不共享的第一不共享隐含单元;第一处理模块406,用于将所述第一特征数据输入到确定的所述第一不共享隐含单元中进行噪声消除,并输出满足设定标准的第二特征数据;第二处理模块408,用于将所述第二特征数据输入所述自编码器的第一共享隐含单元中,通过所述第一共享隐含单元将所述第二特征数据映射到设定特征空间,并输出映射数据;第三处理模块410,用于将所述映射数据输入到所述自编码器的共享特征层,并输出通过所述共享特征层提取出的所述第一特征数据中的共性特征数据。
本实施例中,采用自编码器对各种不同数据来源的待处理数据进行处理,去除各待处理数据中的噪声数据,并从中提取出共性特征数据,用作后续其他神经网络模型的训练样本,解决现有技术中神经网络模型采用不同数据来源的训练样本直接进行训练,导致训练出的神经网络模型性能不好的问题。
针对某个数据来源的待处理数据,使用与其数据来源对应的第一不共享隐含单元对其进行噪声消除,确保噪声消除效果,并输出第二特征数据;通过共享隐含单元对第二特征数据进行处理,将其映射到设定特征空间,并通过共享特征层提取出其中的共性特征数据。这样,不管数据来源于哪里,来源是否相同,都可以方便准确地提取出其中的共性特征数据,以作为后续其他神经网络模型的训练样本,从而解决了现有技术中异源数据对应的训练样本收集成本高、训练出的神经网络模型性能不好的问题。
实施例四
图5为本申请实施例四中数据处理装置的结构框图。如图5所示,数据处理装置包括:获取模块502,用于获取待处理数据的第一特征数据以及来源标识;确定模块504,用于根据所述来源标识,确定自编码器中与其对应的第一不共享隐含单元,所述自编码器包括多个参数不共享的第一不共享隐含单元;第一处理模块506,用于将所述第一特征数据输入到确定的所述第一不共享隐含单元中进行噪声消除,并输出满足设定标准的第二特征数据;第二处理模块508,用于将所述第二特征数据输入所述自编码器的第一共享隐含单元中,通过所述第一共享隐含单元将所述第二特征数据映射到设定特征空间,并输出映射数据;第三处理模块510,用于将所述映射数据输入到所述自编码器的共享特征层,并输出通过所述共享特征层提取出的所述第一特征数据中的共性特征数据。
可选地,第一处理模块506用于将所述第一特征数据输入到确定的所述第一不共享隐含单元中,通过确定的所述第一不共享隐含单元对所述第一特征数据进行噪声消除,输出满足第一设定维度的第二特征数据,其中,所述第一设定维度与所述第一共享隐含单元首层第一共享隐含层的特征维度相同。
可选地,第二处理模块508包括:共享输入模块5081,用于将所述第二特征数据输入到所述第一共享隐含单元中,所述第一共享隐含单元对所述多个第一不共享隐含单元的输出共享;映射模块5082,用于通过所述第一共享隐含单元中各第一共享隐含层的权重矩阵和偏置向量将所述第二特征数据映射到所述设定特征空间,并输出所述映射数据。
可选地,第三处理模块510用于将所述映射数据输入到所述自编码器的共享特征层,由所述共享特征层根据所述映射数据、所述共享特征层的权重矩阵和偏置向量计算获得所述特征数据中的共性特征数据。
可选地,所述自编码器包括编码器、共享特征层和解码器,所述编码器包括所述第一共享隐含单元和所述多个第一不共享隐含单元,所述解码器包括第二共享隐含单元和多个第二不共享隐含单元,所述第二共享隐含单元与所述第一共享隐含单元关于所述共享特征层对称,各所述第二不共享隐含单元与对应的所述第一不共享隐含单元关于所述共享特征层对称;所述装置还包括:训练模块512,用于在所述获取待处理数据的第一特征数据以及所述第一特征数据对应的来源标识之前,使用从多个数据来源获取的训练样本训练所述自编码器。
可选地,所述装置还包括:配置模块514,用于在所述使用从多个数据来源获取的训练样本训练所述自编码器之前,根据所有训练样本中各数据来源对应的训练样本数量,设置各所述数据来源对应的所述第一不共享隐含单元的维度,以使任意两个数据来源对应的训练样本中,数量多的训练样本对应的第一不共享隐含单元的维度大于数量少的训练样本对应的第一不共享隐含单元的维度。
可选地,所述训练模型512包括:第一训练处理模块5121,用于获取训练样本的第一特征数据及对应的来源标识,并将所述第一特征数据输入到所述编码器中与所述来源标识对应的第一不共享隐含单元中;第二训练处理模块5122,用于根据所述来源标识,通过所述编码器的第一不共享隐含单元和第一共享隐含单元,以及,所述共享特征层对所述第一特征数据进行处理,获得所述第一特征数据对应的共性特征数据;第三训练处理模块5123,用于将所述共性特征数据输入所述解码器,并获取所述解码器输出的重构数据;调整模块5124,用于根据所述重构数据对所述编码器中参数进行迭代训练,直至满足训练终止条件。
可选地,所述调整模块5124用于根据预设的损失函数、所述训练样本的第一特征数据和所述重构数据计算损失值,并根据所述损失值调整与所述来源标识对应的第一不共享隐含单元的参数和所述第一共享隐含单元的参数;返回获取训练样本的第一特征数据及对应的来源标识的步骤继续执行,直至满足训练终止条件。
通过本实施例,采用自编码器对各种不同数据来源的待处理数据进行处理,去除各待处理数据中的噪声数据,并从中提取出共性特征数据,用作后续其他神经网络模型的训练样本,解决现有技术中神经网络模型采用不同数据来源的训练样本直接进行训练,导致训练出的神经网络模型性能不好的问题。
针对某个数据来源的待处理数据,使用与其数据来源对应的第一不共享隐含单元对其进行噪声消除,确保噪声消除效果,并输出第二特征数据;通过共享隐含单元对第二特征数据进行处理,将其映射到设定特征空间,并通过共享特征层提取出其中的共性特征数据。这样,不管数据来源于哪里,来源是否相同,都可以方便准确地提取出其中的共性特征数据,以作为后续其他神经网络模型的训练样本,从而解决了现有技术中异源数据对应的训练样本收集成本高、训练出的神经网络模型性能不好的问题。
实施例五
本实施例提供一种电子设备。该电子设备可以包括:
一个或多个处理器;
计算机可读介质,可以配置为存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述任一实施例中所述的方法。
图6为本申请实施例五中电子设备的硬件结构;如图6所示,该电子设备的硬件结构可以包括:处理器601,通信接口602,计算机可读介质603和通信总线604;
其中处理器601、通信接口602、计算机可读介质603通过通信总线604完成相互间的通信;
可选的,通信接口602可以为通信模块的接口,如GSM模块的接口;
其中,处理器601具体可以配置为:获取待处理数据的第一特征数据以及来源标识;根据所述来源标识,确定自编码器中与其对应的第一不共享隐含单元,所述自编码器包括多个参数不共享的第一不共享隐含单元;将所述第一特征数据输入到确定的所述第一不共享隐含单元中进行噪声消除,并输出满足设定标准的第二特征数据;将所述第二特征数据输入所述自编码器的第一共享隐含单元中,通过所述第一共享隐含单元将所述第二特征数据映射到设定特征空间,并输出映射数据;将所述映射数据输入到所述自编码器的共享特征层,并输出通过所述共享特征层提取出的所述第一特征数据中的共性特征数据。
处理器601可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
上述实施例中,电子设备可以为前端的智能终端,也可以为后台的服务器。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含配置为执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被中央处理单元(CPU)执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读介质例如可以但不限于是电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。
计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储介质(RAM)、只读存储介质(ROM)、可擦式可编程只读存储介质(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储介质(CD-ROM)、光存储介质件、磁存储介质件、或者上述的任意合适的组合。
在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输配置为由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写配置为执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络:包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个配置为实现规定的逻辑功能的可执行指令。上述具体实施例中有特定先后关系,但这些先后关系只是示例性的,在具体实现的时候,这些步骤可能会更少、更多或执行顺序有调整。即在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。
作为另一方面,本申请还提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上述任一实施例中所描述的方法。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取待处理数据的第一特征数据以及来源标识;根据所述来源标识,确定自编码器中与其对应的第一不共享隐含单元,所述自编码器包括多个参数不共享的第一不共享隐含单元;将所述第一特征数据输入到确定的所述第一不共享隐含单元中进行噪声消除,并输出满足设定标准的第二特征数据;将所述第二特征数据输入所述自编码器的第一共享隐含单元中,通过所述第一共享隐含单元将所述第二特征数据映射到设定特征空间,并输出映射数据;将所述映射数据输入到所述自编码器的共享特征层,并输出通过所述共享特征层提取出的所述第一特征数据中的共性特征数据。
在本公开的各种实施方式中所使用的表述“第一”、“第二”、“所述第一”或“所述第二”可修饰各种部件而与顺序和/或重要性无关,但是这些表述不限制相应部件。以上表述仅配置为将元件与其它元件区分开的目的。例如,第一用户设备和第二用户设备表示不同的用户设备,虽然两者均是用户设备。例如,在不背离本公开的范围的前提下,第一元件可称作第二元件,类似地,第二元件可称作第一元件。
当一个元件(例如,第一元件)称为与另一元件(例如,第二元件)“(可操作地或可通信地)联接”或“(可操作地或可通信地)联接至”另一元件(例如,第二元件)或“连接至”另一元件(例如,第二元件)时,应理解为该一个元件直接连接至该另一元件或者该一个元件经由又一个元件(例如,第三元件)间接连接至该另一个元件。相反,可理解,当元件(例如,第一元件)称为“直接连接”或“直接联接”至另一元件(第二元件)时,则没有元件(例如,第三元件)插入在这两者之间。
本文中所使用的用语“模块”或“功能单元”例如可意为包括有硬件、软件和固件的单元或者包括有硬件、软件和固件中两种或更多种的组合的单元。“模块”可与例如用语“单元”、“逻辑”、“逻辑块”、“部件”或“电路”可交换地使用。“模块”或“功能单元”可以是集成部件元件的最小单元或集成部件元件的一部分。“模块”可以是用于执行一个或多个功能的最小单元或其一部分。“模块”或“功能单元”可机械地或电学地实施。例如,根据本公开的“模块”或“功能单元”可包括以下至少一种:专用集成电路(ASIC)芯片、场可编程门阵列(FPGA)以及已公知的或今后待开发的用于执行操作的可编程逻辑器件。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种数据处理方法,其特征在于,所述方法包括:
获取待处理数据的第一特征数据和来源标识;
根据所述来源标识,确定自编码器中与其对应的第一不共享隐含单元,所述自编码器包括多个第一不共享隐含单元,所述多个第一不共享隐含单元之间参数不共享;
将所述第一特征数据输入到确定的所述第一不共享隐含单元中进行噪声消除,并输出满足设定标准的第二特征数据;
将所述第二特征数据输入所述自编码器的第一共享隐含单元中,通过所述第一共享隐含单元将所述第二特征数据映射到设定特征空间,并输出映射数据;
将所述映射数据输入到所述自编码器的共享特征层,并输出通过所述共享特征层提取出的所述第一特征数据中的共性特征数据。
2.根据权利要求1所述的方法,其特征在于,所述输出满足设定标准的第二特征数据,包括:
输出满足第一设定维度的第二特征数据,其中,所述第一设定维度与所述第一共享隐含单元首层第一共享隐含层的特征维度相同。
3.根据权利要求1所述的方法,其特征在于,所述将所述第二特征数据输入所述自编码器的第一共享隐含单元中,通过所述第一共享隐含单元将所述第二特征数据映射到设定特征空间,并输出映射数据,包括:
将所述第二特征数据输入到所述第一共享隐含单元中,所述第一共享隐含单元对所述多个第一不共享隐含单元的输出共享;
通过所述第一共享隐含单元中各第一共享隐含层的权重矩阵和偏置向量将所述第二特征数据映射到所述设定特征空间,并输出所述映射数据。
4.根据权利要求3所述的方法,其特征在于,所述将所述映射数据输入到所述自编码器的共享特征层,并输出通过所述共享特征层提取出的所述第一特征数据中的共性特征数据,包括:
将所述映射数据输入到所述自编码器的共享特征层,由所述共享特征层根据所述映射数据、所述共享特征层的权重矩阵和偏置向量计算获得所述特征数据中的共性特征数据。
5.根据权利要求1所述的方法,其特征在于,所述自编码器包括编码器、共享特征层和解码器,所述编码器包括所述第一共享隐含单元和所述多个第一不共享隐含单元,所述解码器包括第二共享隐含单元和多个第二不共享隐含单元,所述第二共享隐含单元与所述第一共享隐含单元关于所述共享特征层对称,各所述第二不共享隐含单元与对应的所述第一不共享隐含单元关于所述共享特征层对称;
在所述获取待处理数据的第一特征数据以及所述第一特征数据对应的来源标识之前,所述方法还包括:
使用从多个数据来源获取的训练样本训练所述自编码器。
6.根据权利要求5所述的方法,其特征在于,在所述使用从多个数据来源获取的训练样本训练所述自编码器之前,所述方法还包括:
根据所有训练样本中各数据来源对应的训练样本数量,设置各所述数据来源对应的所述第一不共享隐含单元的维度,以使任意两个数据来源对应的训练样本中,数量多的训练样本对应的第一不共享隐含单元的维度大于数量少的训练样本对应的第一不共享隐含单元的维度。
7.根据权利要求5所述的方法,其特征在于,所述使用从多个数据来源获取的训练样本训练所述自编码器,包括:
获取训练样本的第一特征数据及对应的来源标识,并将所述第一特征数据输入到所述编码器中与所述来源标识对应的第一不共享隐含单元中;
根据所述来源标识,通过所述编码器的第一不共享隐含单元和第一共享隐含单元,以及,所述共享特征层对所述第一特征数据进行处理,获得所述第一特征数据对应的共性特征数据;
将所述共性特征数据输入所述解码器,并获取所述解码器输出的重构数据;
根据所述重构数据对所述编码器中参数进行迭代训练,直至满足训练终止条件。
8.根据权利要求7所述的方法,其特征在于,所述根据所述重构数据对所述编码器中参数进行迭代训练,直至满足训练终止条件,包括:
根据预设的损失函数、所述训练样本的第一特征数据和所述重构数据计算损失值,并根据所述损失值调整与所述来源标识对应的第一不共享隐含单元的参数和所述第一共享隐含单元的参数;
返回获取训练样本的第一特征数据及对应的来源标识的步骤继续执行,直至满足训练终止条件。
9.一种电子设备,包括:
一个或多个处理器;
计算机可读介质,配置为存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一所述的方法。
CN201910329950.1A 2019-04-23 2019-04-23 数据处理方法、电子设备及计算机可读介质 Active CN111832596B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910329950.1A CN111832596B (zh) 2019-04-23 2019-04-23 数据处理方法、电子设备及计算机可读介质
PCT/CN2020/086362 WO2020216285A1 (zh) 2019-04-23 2020-04-23 数据处理方法、电子设备及计算机可读介质
US17/605,404 US20220358362A1 (en) 2019-04-23 2020-04-23 Data processing method, electronic device and computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910329950.1A CN111832596B (zh) 2019-04-23 2019-04-23 数据处理方法、电子设备及计算机可读介质

Publications (2)

Publication Number Publication Date
CN111832596A CN111832596A (zh) 2020-10-27
CN111832596B true CN111832596B (zh) 2022-03-22

Family

ID=72911971

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910329950.1A Active CN111832596B (zh) 2019-04-23 2019-04-23 数据处理方法、电子设备及计算机可读介质

Country Status (3)

Country Link
US (1) US20220358362A1 (zh)
CN (1) CN111832596B (zh)
WO (1) WO2020216285A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113821667A (zh) * 2021-06-11 2021-12-21 腾讯科技(深圳)有限公司 基于人工智能的图像处理方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105893612A (zh) * 2016-04-26 2016-08-24 中国科学院信息工程研究所 一种多源异构大数据的一致性表示方法
CN107103364A (zh) * 2017-03-28 2017-08-29 上海大学 一种基于多源域的任务拆分迁移学习预测方法
CN107977456A (zh) * 2017-12-15 2018-05-01 清华大学 一种基于多任务深度网络的多源大数据分析方法
CN109388662A (zh) * 2017-08-02 2019-02-26 阿里巴巴集团控股有限公司 一种基于共享数据的模型训练方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10956484B1 (en) * 2016-03-11 2021-03-23 Gracenote, Inc. Method to differentiate and classify fingerprints using fingerprint neighborhood analysis
US9830526B1 (en) * 2016-05-26 2017-11-28 Adobe Systems Incorporated Generating image features based on robust feature-learning
US20180024968A1 (en) * 2016-07-22 2018-01-25 Xerox Corporation System and method for domain adaptation using marginalized stacked denoising autoencoders with domain prediction regularization
US10841033B2 (en) * 2019-03-01 2020-11-17 Huawei Technologies Co., Ltd. Under-sampling based receiver architecture for wireless communications systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105893612A (zh) * 2016-04-26 2016-08-24 中国科学院信息工程研究所 一种多源异构大数据的一致性表示方法
CN107103364A (zh) * 2017-03-28 2017-08-29 上海大学 一种基于多源域的任务拆分迁移学习预测方法
CN109388662A (zh) * 2017-08-02 2019-02-26 阿里巴巴集团控股有限公司 一种基于共享数据的模型训练方法及装置
CN107977456A (zh) * 2017-12-15 2018-05-01 清华大学 一种基于多任务深度网络的多源大数据分析方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Cross-media analysis and reasoning:Advances and directions;Peng YX等;《Frontier of Information Technology & Electronic Engineering》;20170331;第18卷(第1期);第44-57页 *
基于深度学习的推荐系统研究综述;黄立威等;《计算机学报》;20180731;第41卷(第7期);第1619-1647页 *
基于自编码器的多源数据特征提取方法;薛越等;《电脑迷》;20181231(第36期);第91、274页 *

Also Published As

Publication number Publication date
US20220358362A1 (en) 2022-11-10
WO2020216285A1 (zh) 2020-10-29
CN111832596A (zh) 2020-10-27

Similar Documents

Publication Publication Date Title
CN107680611B (zh) 基于卷积神经网络的单通道声音分离方法
US10621971B2 (en) Method and device for extracting speech feature based on artificial intelligence
JP7337953B2 (ja) 音声認識方法及び装置、ニューラルネットワークの訓練方法及び装置、並びにコンピュータープログラム
CN108172213B (zh) 娇喘音频识别方法、装置、设备及计算机可读介质
CN111429938B (zh) 一种单通道语音分离方法、装置及电子设备
CN110335587B (zh) 语音合成方法、系统、终端设备和可读存储介质
Kadıoğlu et al. An empirical study of Conv-TasNet
WO2022141868A1 (zh) 一种提取语音特征的方法、装置、终端及存储介质
Wang et al. Self-supervised learning for speech enhancement
KR20210074748A (ko) 도메인 적응에 기반한 네트워크의 트레이닝 방법, 동작 방법 및 동작 장치
KR102026226B1 (ko) 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법 및 시스템
CN112992172A (zh) 一种基于注意力机制的单通道时域鸟鸣声分离方法
CN111832596B (zh) 数据处理方法、电子设备及计算机可读介质
Şimşekli et al. Non-negative tensor factorization models for Bayesian audio processing
CN113299298A (zh) 残差单元及网络及目标识别方法及系统及装置及介质
Raj et al. Multilayered convolutional neural network-based auto-CODEC for audio signal denoising using mel-frequency cepstral coefficients
Casebeer et al. Deep tensor factorization for spatially-aware scene decomposition
CN115588437B (zh) 语音增强方法、装置、设备和存储介质
CN115116469B (zh) 特征表示的提取方法、装置、设备、介质及程序产品
CN117496990A (zh) 语音去噪方法、装置、计算机设备及存储介质
CN113707172B (zh) 稀疏正交网络的单通道语音分离方法、系统、计算机设备
Sun et al. Single-channel speech enhancement based on joint constrained dictionary learning
CN112989106B (zh) 音频分类方法、电子设备以及存储介质
CN112489678B (zh) 一种基于信道特征的场景识别方法及装置
CN112639832A (zh) 识别生成网络的显著特征

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant