WO2020228283A1 - 特征提取方法、装置及计算机可读存储介质 - Google Patents

特征提取方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
WO2020228283A1
WO2020228283A1 PCT/CN2019/118011 CN2019118011W WO2020228283A1 WO 2020228283 A1 WO2020228283 A1 WO 2020228283A1 CN 2019118011 W CN2019118011 W CN 2019118011W WO 2020228283 A1 WO2020228283 A1 WO 2020228283A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature extraction
data
extraction model
sample data
parameter values
Prior art date
Application number
PCT/CN2019/118011
Other languages
English (en)
French (fr)
Inventor
黄博
毕野
吴振宇
王建明
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2020228283A1 publication Critical patent/WO2020228283A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2465Query processing support for facilitating data mining operations in structured databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • This application relates to the field of computer technology, and in particular to a feature extraction method, device and computer-readable storage medium.
  • a commonly used data mining process includes stages such as data collection, data preprocessing, feature construction and selection, model training, and prediction.
  • stage such as data collection, data preprocessing, feature construction and selection, model training, and prediction.
  • feature construction and selection are time-consuming, but also very important. This is because the result of feature construction and selection will be used as the input of the machine learning model. If the features cannot express the hidden patterns in the data, the machine learning model will not learn anything and naturally cannot provide more accurate prediction results.
  • This application provides a feature extraction method, device, and computer-readable storage medium, the main purpose of which is to more accurately represent the features of data, so as to more accurately extract feature information of data.
  • the present application also provides a feature extraction method, the method includes: obtaining training data, the training data including the original feature corresponding to each sample data; using the training data to train the initial feature extraction model, and Obtain the parameter values of the initial feature extraction model; filter the parameter values of the initial feature extraction model to obtain the filtered parameter values; use the filtered parameter values to reconstruct the initial feature extraction model to obtain the reconstructed feature extraction model ; Input the training data into the reconstructed feature extraction model to obtain the derived features of each sample data; retrain the reconstruction according to the derived features of each sample data and the original features corresponding to each sample data The constructed feature extraction model until the iteration is terminated, and a trained feature extraction model is obtained; target data is obtained; the target data is input into the trained feature extraction model to obtain the features of the target data.
  • the present application also provides a feature extraction device, the device includes a memory and a processor, the memory stores a feature extraction program that can run on the processor, and the feature extraction program is The processor executes the following steps: acquiring training data, the training data including the original features corresponding to each sample data; using the training data to train the initial feature extraction model, and obtain the parameter values of the initial feature extraction model; The parameter values of the feature extraction model are screened to obtain the screened parameter values; the initial feature extraction model is reconstructed by using the screened parameter values to obtain the reconstructed feature extraction model; the training data is input to the reconstruction In the constructed feature extraction model, the derived features of each sample data are obtained; according to the derived features of each sample data and the original features corresponding to each sample data, the reconstructed feature extraction model is retrained until the iteration ends, And obtain a trained feature extraction model; obtain target data; input the target data into the trained feature extraction model to obtain the features of the target data.
  • the present application also provides a computer-readable storage medium with a feature extraction program stored on the computer-readable storage medium, and the feature extraction program can be executed by one or more processors to achieve The steps of the feature extraction method as described above.
  • this application obtains training data, the training data includes the original features corresponding to each sample data; uses the training data to train the initial feature extraction model, and obtains the parameter values of the initial feature extraction model; extracts the initial feature The parameter values of the model are filtered to obtain the filtered parameter values; the initial feature extraction model is reconstructed by using the filtered parameter values to obtain the reconstructed feature extraction model; the training data is input to the reconstructed In the feature extraction model, the derived features of each sample data are obtained; the reconstructed feature extraction model is retrained according to the derived features of each sample data and the original features corresponding to each sample data, until the iteration is terminated, and the The trained feature extraction model.
  • This application can better represent data features and improve the accuracy of feature extraction.
  • FIG. 1 is a schematic flowchart of a feature extraction method provided by an embodiment of this application.
  • FIG. 2 is a schematic diagram of the internal structure of a feature extraction device provided by an embodiment of the application.
  • FIG. 3 is a schematic diagram of modules of a feature extraction program in a feature extraction device provided by an embodiment of the application.
  • This application provides a feature extraction method.
  • FIG. 1 it is a schematic flowchart of a feature extraction method provided by an embodiment of this application.
  • the method can be executed by a device, and the device can be implemented by software and/or hardware.
  • the feature extraction method includes:
  • the original sample data is obtained
  • the original sample data is preprocessed to obtain the training data, and the preprocessing includes at least one of the following: normalization processing, missing value filling, noise data processing, and data cleaning of inconsistent data.
  • the normalization of the data is to scale the data to a small specific interval. Since each feature measurement unit in the feature value of the original variable is different, in order to be able to participate in the evaluation calculation of the index, the index needs to be standardized, and the value of the original variable is mapped to a certain value interval through function transformation.
  • the normalization processing method applied in this application is the z-score normalization method.
  • the processing of missing value filling includes: deleting samples with missing values, using a global constant to fill missing values, and so on.
  • noise smoothing is the random error or deviation of the measured variable. Given a numerical attribute, the following data smoothing techniques can be used to smooth the noise. For example, binning method and so on.
  • the initial feature extraction model includes a recurrent neural network model
  • the recurrent neural network model includes: an input layer, a hidden layer, and an output layer;
  • Input layer used to define different types of data input in the characteristic data of the element
  • Hidden layer used to perform non-linear processing on the feature data of the elements input by the input layer using the activation function
  • Output layer used to output the result of the hidden layer fitting, and the data type corresponding to the feature of the output element
  • the memory unit decides whether to write or delete the memory of information inside the neuron, and combines the feature data of the previously recorded element, the feature data of the current memory element and the feature of the current input element together , To record long-term information.
  • the parameter values of the initial feature extraction model can be output.
  • this application uses a BP neural network-based method to select features from the parameters of the feature extractor, and use the parameter value X
  • the sensitivity ⁇ of the change in the state Y of the feature extraction model is used as a measure of the evaluation parameter value, so that more sensitive parameter values can be selected to facilitate subsequent mining of more hidden features, that is, derived features, from the sample data.
  • the screening of the parameter values of the initial feature extraction model, and obtaining the parameter values after screening includes:
  • the parameter values of the initial feature extraction model are sorted according to the level of sensitivity, and the parameter value with the top preset digits is selected from the sorted parameter values as the filtered parameter value.
  • the reconstructing the initial feature extraction model using the filtered parameter values to obtain the reconstructed feature extraction model includes: adding the filtered parameter value in the initial feature extraction model To obtain the reconstructed feature extraction model, reduce the weights of other parameter values in the parameter values of the initial feature extraction model, which facilitates the training of the feature extraction model to be more sensitive to the features corresponding to the parameters with higher sensitivity, thereby mining More hidden features.
  • the method for training the reconstructed feature extraction model is the same as the method for training the initial feature extraction model described above.
  • the derivative feature is a feature that changes due to the change of the original feature. According to the original feature, the derivative feature variable can be obtained through a deep feature extractor.
  • the derivative feature refers to the use of original data for feature learning to obtain new features, thereby mining hidden Features in the original data.
  • the retraining the reconstructed feature extraction model according to the derived features of each sample data and the original features corresponding to each sample data until the iteration is terminated, and obtaining a trained feature extraction model includes:
  • variable importance is an index to measure the importance of variables. It uses the importance method of random forest variables to filter out the important characteristics of each sample data from the merged characteristics of each sample data, including:
  • the target data is data acquired by the electronic device, such as the image data mentioned by the user.
  • This application discloses a feature extraction method.
  • the method includes: acquiring training data, the training data including the original features corresponding to each sample data; using the training data to train an initial feature extraction model, and obtain the initial feature extraction model Parameter values; filter the parameter values of the initial feature extraction model to obtain the filtered parameter values; reconstruct the initial feature extraction model using the filtered parameter values to obtain the reconstructed feature extraction model; combine the training data Input to the reconstructed feature extraction model to obtain the derived features of each sample data; retrain the reconstructed feature extraction model according to the derived features of each sample data and the original features corresponding to each sample data , Until the iteration ends, and a trained feature extraction model is obtained.
  • This application can better represent data features and improve the accuracy of feature extraction.
  • the application also provides a feature extraction device.
  • FIG. 2 it is a schematic diagram of the internal structure of a feature extraction device provided by an embodiment of this application.
  • the feature extraction device 1 may be a personal computer (Personal Computer, PC), or a terminal device such as a smart phone, a tablet computer, or a portable computer.
  • the feature extraction device 1 at least includes a memory 11, a processor 12, a communication bus 13, and a network interface 14.
  • the memory 11 includes at least one type of readable storage medium, and the readable storage medium includes flash memory, hard disk, multimedia card, card-type memory (for example, SD or DX memory, etc.), magnetic memory, magnetic disk, optical disk, etc.
  • the memory 11 may be an internal storage unit of the feature extraction device 1 in some embodiments, such as a hard disk of the feature extraction device 1.
  • the memory 11 may also be an external storage device of the feature extraction device 1, such as a plug-in hard disk equipped on the feature extraction device 1, a smart media card (SMC), and a secure digital (Secure Digital, SD card, Flash Card, etc.
  • the memory 11 may also include both an internal storage unit of the feature extraction apparatus 1 and an external storage device.
  • the memory 11 can be used not only to store application software and various data installed in the feature extraction device 1, such as the code of the feature extraction program 01, etc., but also to temporarily store data that has been output or will be output.
  • the processor 12 may be a central processing unit (CPU), controller, microcontroller, microprocessor, or other feature extraction chip, for running the program code or processing stored in the memory 11 Data, for example, execute feature extraction program 01 and so on.
  • CPU central processing unit
  • controller microcontroller
  • microprocessor microprocessor
  • feature extraction chip for running the program code or processing stored in the memory 11 Data, for example, execute feature extraction program 01 and so on.
  • the communication bus 13 is used to realize the connection and communication between these components.
  • the network interface 14 may optionally include a standard wired interface and a wireless interface (such as a WI-FI interface), and is usually used to establish a communication connection between the device 1 and other electronic devices.
  • the device 1 may also include a user interface.
  • the user interface may include a display (Display) and an input unit such as a keyboard (Keyboard).
  • the optional user interface may also include a standard wired interface and a wireless interface.
  • the display may be an LED display, a liquid crystal display, a touch liquid crystal display, an organic light-emitting diode (OLED) touch device, and the like.
  • the display can also be called a display screen or a display unit as appropriate, and is used to display the information processed in the feature extraction device 1 and to display a visualized user interface.
  • Figure 2 only shows the feature extraction device 1 with components 11-14 and feature extraction program 01.
  • FIG. 1 does not constitute a limitation on the feature extraction device 1, and may include Fewer or more components than shown, or some combination of components, or different component arrangement.
  • the feature extraction program 01 is stored in the memory 11; when the processor 12 executes the feature extraction program 01 stored in the memory 11, the following steps are implemented:
  • training data where the training data includes the original features corresponding to each sample data.
  • the original sample data is obtained
  • the original sample data is preprocessed to obtain the training data, and the preprocessing includes at least one of the following: normalization processing, missing value filling, noise data processing, and data cleaning of inconsistent data.
  • the normalization of the data is to scale the data to a small specific interval. Since each feature measurement unit in the feature value of the original variable is different, in order to be able to participate in the evaluation calculation of the indicator, the indicator needs to be standardized, and the value of the original variable is mapped to a certain numerical interval through function transformation.
  • the normalization processing method applied in this application is the z-score normalization method.
  • the processing of missing value filling includes: deleting samples with missing values, using a global constant to fill missing values, and so on.
  • noise smoothing is the random error or deviation of the measured variable. Given a numerical attribute, the following data smoothing techniques can be used to smooth the noise. For example, binning method and so on.
  • the initial feature extraction model is trained using the training data, and the parameter values of the initial feature extraction model are obtained.
  • the initial feature extraction model includes a recurrent neural network model
  • the recurrent neural network model includes: an input layer, a hidden layer, and an output layer;
  • Input layer used to define different types of data input in the characteristic data of the element
  • Hidden layer used to perform non-linear processing on the feature data of the elements input by the input layer using the activation function
  • Output layer used to output the result of the hidden layer fitting, and the data type corresponding to the feature of the output element
  • the memory unit decides whether to write or delete the memory of information inside the neuron, and combines the feature data of the previously recorded element, the feature data of the current memory element and the feature of the current input element together , To record long-term information.
  • the parameter values of the initial feature extraction model can be output.
  • this application uses a BP neural network-based method to select features from the parameters of the feature extractor, and use the parameter value X
  • the sensitivity ⁇ of the change in the state Y of the feature extraction model is used as a measure of the evaluation parameter value, so that more sensitive parameter values can be selected to facilitate subsequent mining of more hidden features, that is, derived features, from the sample data.
  • the screening of the parameter values of the initial feature extraction model, and obtaining the parameter values after screening includes:
  • the parameter values of the initial feature extraction model are sorted according to the level of sensitivity, and the parameter value with the top preset digits is selected from the sorted parameter values as the filtered parameter value.
  • the initial feature extraction model is reconstructed using the screened parameter values to obtain a reconstructed feature extraction model.
  • the reconstructing the initial feature extraction model using the filtered parameter values to obtain the reconstructed feature extraction model includes: adding the filtered parameter value in the initial feature extraction model To obtain the reconstructed feature extraction model, reduce the weights of other parameter values in the parameter values of the initial feature extraction model, which facilitates the training of the feature extraction model to be more sensitive to the features corresponding to the parameters with higher sensitivity, thereby mining More hidden features.
  • the training data is input into the reconstructed feature extraction model to obtain derived features of each sample data.
  • the method for training the reconstructed feature extraction model is the same as the method for training the initial feature extraction model described above.
  • the derivative feature is a feature that changes due to the change of the original feature. According to the original feature, the derivative feature variable can be obtained through a deep feature extractor.
  • the derivative feature refers to the use of original data for feature learning to obtain new features, thereby mining hidden Features in the original data.
  • the reconstructed feature extraction model is retrained according to the derived features of each sample data and the original features corresponding to each sample data, until the iteration ends, and a trained feature extraction model is obtained.
  • the retraining the reconstructed feature extraction model according to the derived features of each sample data and the original features corresponding to each sample data until the iteration is terminated, and obtaining a trained feature extraction model includes:
  • variable importance is an index to measure the importance of variables. It uses the importance method of random forest variables to filter out the important characteristics of each sample data from the merged characteristics of each sample data, including:
  • the target data is data acquired by the electronic device, such as the image data mentioned by the user.
  • the target data is input into the trained feature extraction model to obtain the characteristics of the target data.
  • This application discloses a feature extraction method.
  • the method includes: acquiring training data, the training data including the original features corresponding to each sample data; using the training data to train an initial feature extraction model, and obtain the initial feature extraction model Parameter values; filter the parameter values of the initial feature extraction model to obtain the filtered parameter values; reconstruct the initial feature extraction model using the filtered parameter values to obtain the reconstructed feature extraction model; combine the training data Input to the reconstructed feature extraction model to obtain the derived features of each sample data; retrain the reconstructed feature extraction model according to the derived features of each sample data and the original features corresponding to each sample data , Until the iteration is terminated, and the trained feature extraction model is obtained.
  • This application can better represent data features and improve the accuracy of feature extraction.
  • the feature extraction program may also be divided into one or more modules, and the one or more modules are stored in the memory 11 and are executed by one or more processors (in this embodiment, the processing This application is executed by the device 12).
  • the module referred to in this application refers to a series of computer program instruction segments capable of completing specific functions, and is used to describe the execution process of the feature extraction program in the feature extraction device.
  • FIG. 3 is a schematic diagram of program modules of the feature extraction program in an embodiment of the feature extraction device of this application.
  • the feature extraction program can be divided into an acquisition module 10, a training module 20, and a screening module 30.
  • the reconstruction module 40 exemplarily:
  • the obtaining module 10 obtains training data, where the training data includes the original features corresponding to each sample data;
  • the training module 20 uses the training data to train the initial feature extraction model, and obtains the parameter values of the initial feature extraction model;
  • the screening module 30 screens the parameter values of the initial feature extraction model to obtain the parameter values after screening
  • the reconstruction module 40 reconstructs the initial feature extraction model by using the screened parameter values to obtain a reconstructed feature extraction model
  • the training module 20 inputs the training data into the reconstructed feature extraction model to obtain derivative features of each sample data
  • the training module 20 retrains the reconstructed feature extraction model according to the derived features of each sample data and the original features corresponding to each sample data, until the iteration is terminated, and a trained feature extraction model is obtained;
  • the acquiring module 10 acquires target data
  • the training module 20 inputs the target data into the trained feature extraction model to obtain the characteristics of the target data.
  • an embodiment of the present application also proposes a computer-readable storage medium with a feature extraction program stored on the computer-readable storage medium, and the feature extraction program can be executed by one or more processors to implement the following operations:
  • training data includes original features corresponding to each sample data
  • the target data is input into the trained feature extraction model to obtain the characteristics of the target data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Fuzzy Systems (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)
  • Machine Translation (AREA)

Abstract

本申请公开了一种特征提取方法,该方法包括:获取训练数据,所述训练数据包括每个样本数据对应的原始特征;利用所述训练数据训练初始特征提取模型,并得到初始特征提取模型的参数值;对初始特征提取模型的参数值进行筛选,获取筛选后的参数值;利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型;将所述训练数据输入至所述重构后的特征提取模型中,得到每个样本数据的衍生特征;根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型。本申请能更好的表示数据特征,提高特征提取的准确性。

Description

特征提取方法、装置及计算机可读存储介质
本申请要求于2019年5月15日提交中国专利局,申请号为201910401822.3、发明名称为“特征提取方法、装置及计算机可读存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及计算机技术领域,尤其涉及一种特征提取方法、装置及计算机可读存储介质。
背景技术
一个常用的数据挖掘流程包括数据采集、数据预处理、特征构建与选择、模型训练、预测等阶段。其中特征构建与选择较为耗时,但又是非常重要的。这是因为特征构建与选择的结果将作为机器学习模型的输入,如果特征不能表达数据中隐藏的模式,机器学习模型将学不到任何东西,自然无法提供较为准确的预测结果。
为了获得精细化的输入特征,一般需要使用大量的人力和时间进行特征构建与选择,然而,人工进行特征的构建与选择的代价非常高。一方面,需要消耗大量的人力;另一方面,很多隐藏在数据里的特征是很难被人发现的。
发明内容
本申请提供一种特征提取方法、装置及计算机可读存储介质,其主要目的在于更能准确的表示数据的特征,从而更能准确的提取数据的特征信息。
为实现上述目的,本申请还提供一种特征提取方法,所述方法包括:获取训练数据,所述训练数据包括每个样本数据对应的原始特征;利用所述训练数据训练初始特征提取模型,并得到初始特征提取模型的参数值;对初始特征提取模型的参数值进行筛选,获取筛选后的参数值;利用筛选后的参数 值重构所述初始特征提取模型,得到重构后的特征提取模型;将所述训练数据输入至所述重构后的特征提取模型中,得到每个样本数据的衍生特征;根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型;获取目标数据;将所述目标数据输入至训练好的特征提取模型中,得到所述目标数据的特征。
为了实现上述目的、本申请还提供一种特征提取装置,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的特征提取程序,所述特征提取程序被所述处理器执行时实现如下步骤:获取训练数据,所述训练数据包括每个样本数据对应的原始特征;利用所述训练数据训练初始特征提取模型,并得到初始特征提取模型的参数值;对初始特征提取模型的参数值进行筛选,获取筛选后的参数值;利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型;将所述训练数据输入至所述重构后的特征提取模型中,得到每个样本数据的衍生特征;根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型;获取目标数据;将所述目标数据输入至训练好的特征提取模型中,得到所述目标数据的特征。
此外,为实现上述目的,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有特征提取程序,所述特征提取程序可被一个或者多个处理器执行,以实现如上所述的特征提取方法的步骤。
通过上述技术方案,本申请获取训练数据,所述训练数据包括每个样本数据对应的原始特征;利用所述训练数据训练初始特征提取模型,并得到初始特征提取模型的参数值;对初始特征提取模型的参数值进行筛选,获取筛选后的参数值;利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型;将所述训练数据输入至所述重构后的特征提取模型中,得到每个样本数据的衍生特征;根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型。本申请能更好的表示数据特征,提高特征提取 的准确性。
附图说明
图1为本申请一实施例提供的特征提取方法的流程示意图;
图2为本申请一实施例提供的特征提取装置的内部结构示意图;
图3为本申请一实施例提供的特征提取装置中特征提取程序的模块示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供一种特征提取方法。参照图1所示,为本申请一实施例提供的特征提取方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,特征提取方法包括:
S10、获取训练数据,所述训练数据包括每个样本数据对应的原始特征。
在本实施例中,获取原始样本数据;
对所述原始样本数据进行预处理,得到所述训练数据,所述预处理包括以下至少一种:归一化处理、缺失值填充、噪声数据处理、不一致数据的数据清理。
其中数据的归一化是将数据按比例缩放,使之落入一个小的特定区间。由于原始变量特征值中的各个特征度量单位是不同的,为了能够将指标参与评价计算,需要对指标进行规范化处理,通过函数变换将原始变量的数值映射到某个数值区间。本申请应用的归一化处理方法是z-score归一化方法。
缺失值填充的处理包括:删除含有缺失值的样,使用一个全局常量填充缺失值等等。
噪声数据的处理包括噪声的平滑。噪声平滑:噪声(noise)是被测量变 量的随机误差或偏差。给定一个数值属性,可以使用以下数据光滑技术来平滑噪声。例如分箱(binning)法等等。
S11、利用所述训练数据训练初始特征提取模型,并得到初始特征提取模型的参数值。
在本实施例中,所述初始特征提取模型包括循环神经网络模型,所述循环神经网络模型包括:输入层、隐藏层和输出层;
输入层:用于定义元素的特征数据中不同类型的数据输入;
隐藏层:用于利用激励函数对输入层输入的元素的特征数据进行非线性化处理;
输出层:用于对隐藏层拟合的结果进行输出表示,输出元素的特征对应的数据类型;
记忆单元:记忆单元在神经元内部决定是否应该写入或删除对信息的记忆,并将之前的记录的元素的特征数据、现在的记忆的元素的特征数据和当前输入的元素的特征结合在一起,对长期信息进行记录。
在利用神经网络的方法训练初始特征提取模型时,在停止训练时,即可输出初始特征提取模型的参数值。
S12、对初始特征提取模型的参数值进行筛选,获取筛选后的参数值。
由于在很多情况下,数据中的特征数量会远远超过训练数据的数量,为简化模型的训练,本申请使用基于BP神经网络的方法从特征提取器参数中进行特征选择,并以参数值X对特征提取模型状态Y变化的灵敏度δ作为评价参数值的度量,从而挑选出较灵敏的参数值,以便于后续从样本数据挖掘出更多的隐藏特征,即衍生特征。
在一具体实现中,所述对初始特征提取模型的参数值进行筛选,获取筛选后的参数值包括:
计算所述初始特征提取模型的参数值相对于所述初始特征提取模型的灵敏度;
根据灵敏度的高低对所述初始特征提取模型的参数值进行排序,从排序后的参数值中挑选排在前预设位数的参数值作为筛选后的参数值。
S13、利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型。
在一实施例中,所述利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型包括:在所述初始特征提取模型中,增加所述筛选后的参数值的权重以得到重构后的特征提取模型,减少所述初始特征提取模型的参数值中其他参数值的权重,这样便于特征提取模型的训练对灵敏度较高的参数对应的特征更加敏感,从而挖掘更多的隐藏特征。
S14、将所述训练数据输入至所述重构后的特征提取模型中,得到每个样本数据的衍生特征。
在本实施例中,训练所述重构后的特征提取模型的方法与上述训练所述初始特征提取模型方法相同。所述衍生特征是一种因原始特征的变化而变化的特征,根据该原始特征可以经由深度特征提取器得到衍生特征变量,衍生特征是指用原始数据进行特征学习得到新的特征,从而挖掘隐藏在原始数据中的特征。
S15、根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型。
所述根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型包括:
将所述每个样本数据的衍生特征及每个样本数据的原始特征进行合并,得到每个样本数据的合并后的特征;
利用随机森林变量的重要性方法,从每个样本数据的合并后的特征中筛选出每个样本数据的重要特征;
利用所述训练数据中每个样本数据的重要特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型。
其中变量的重要性variable importance是衡量变量重要性的指标,其利用随机森林变量的重要性方法,从每个样本数据的合并后的特征中筛选出每个样本数据的重要特征包括:
1)将每个样本数据的合并后的特征构成随机森林中的每一颗决策树,使用相应的带外数据OOB数据来计算它的带外数据误差,记为errOOB1;
2)随机地对带外数据OOB所有样本的特征X加入噪声干扰(就可以随机 的改变样本在特征X处的值),再次计算它的带外数据误差,记为errOOB2;
3)假设随机森林中有Ntree棵树,那么对于特征t的重要性,构建一个目标函数,该目标函数表明某个特征随机加入噪声之后,若带外的准确率大幅度降低,则说明这个特征对于样本的分类结果影响很大,也就是说它的重要程度比较高。
S16、获取目标数据。
在本实施例中,所述目标数据是电子设备获取的数据,例如用户上述的图像数据等等。
S17、将所述目标数据输入至训练好的特征提取模型中,得到所述目标数据的特征。
本申请公开了一种特征提取方法,该方法包括:获取训练数据,所述训练数据包括每个样本数据对应的原始特征;利用所述训练数据训练初始特征提取模型,并得到初始特征提取模型的参数值;对初始特征提取模型的参数值进行筛选,获取筛选后的参数值;利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型;将所述训练数据输入至所述重构后的特征提取模型中,得到每个样本数据的衍生特征;根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型。本申请能更好的表示数据特征,提高特征提取的准确性。
本申请还提供一种特征提取装置。参照图2所示,为本申请一实施例提供的特征提取装置的内部结构示意图。
在本实施例中,特征提取装置1可以是个人电脑(Personal Computer,PC),也可以是智能手机、平板电脑、便携计算机等终端设备。该特征提取装置1至少包括存储器11、处理器12,通信总线13,以及网络接口14。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是特征提取装置1的内部存储单元,例如该特征提取装置1的硬盘。存储器11在另一些实施例中也可以是特征提取装置1的外部存储设备,例如特征提取装置1上配备的 插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器11还可以既包括特征提取装置1的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于特征提取装置1的应用软件及各类数据,例如特征提取程序01的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他特征提取芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行特征提取程序01等。
通信总线13用于实现这些组件之间的连接通信。
网络接口14可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该装置1与其他电子设备之间建立通信连接。
可选地,该装置1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-Emitting Diode,OLED)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在特征提取装置1中处理的信息以及用于显示可视化的用户界面。
图2仅示出了具有组件11-14以及特征提取程序01的特征提取装置1,本领域技术人员可以理解的是,图1示出的结构并不构成对特征提取装置1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在图2所示的装置1实施例中,存储器11中存储有特征提取程序01;处理器12执行存储器11中存储的特征提取程序01时实现如下步骤:
获取训练数据,所述训练数据包括每个样本数据对应的原始特征。
在本实施例中,获取原始样本数据;
对所述原始样本数据进行预处理,得到所述训练数据,所述预处理包括以下至少一种:归一化处理、缺失值填充、噪声数据处理、不一致数据的数 据清理。
其中数据的归一化是将数据按比例缩放,使之落入一个小的特定区间。由于原始变量特征值中的各个特征度量单位是不同的,为了能够将指标参与评价计算,需要对指标进行规范化处理,通过函数变换将原始变量的数值映射到某个数值区间。本申请应用的归一化处理方法是z-score归一化方法。
缺失值填充的处理包括:删除含有缺失值的样,使用一个全局常量填充缺失值等等。
噪声数据的处理包括噪声的平滑。噪声平滑:噪声(noise)是被测量变量的随机误差或偏差。给定一个数值属性,可以使用以下数据光滑技术来平滑噪声。例如分箱(binning)法等等。
利用所述训练数据训练初始特征提取模型,并得到初始特征提取模型的参数值。
在本实施例中,所述初始特征提取模型包括循环神经网络模型,所述循环神经网络模型包括:输入层、隐藏层和输出层;
输入层:用于定义元素的特征数据中不同类型的数据输入;
隐藏层:用于利用激励函数对输入层输入的元素的特征数据进行非线性化处理;
输出层:用于对隐藏层拟合的结果进行输出表示,输出元素的特征对应的数据类型;
记忆单元:记忆单元在神经元内部决定是否应该写入或删除对信息的记忆,并将之前的记录的元素的特征数据、现在的记忆的元素的特征数据和当前输入的元素的特征结合在一起,对长期信息进行记录。
在利用神经网络的方法训练初始特征提取模型时,在停止训练时,即可输出初始特征提取模型的参数值。
对初始特征提取模型的参数值进行筛选,获取筛选后的参数值。
由于在很多情况下,数据中的特征数量会远远超过训练数据的数量,为简化模型的训练,本申请使用基于BP神经网络的方法从特征提取器参数中进行特征选择,并以参数值X对特征提取模型状态Y变化的灵敏度δ作为评价参数值的度量,从而挑选出较灵敏的参数值,以便于后续从样本数据挖掘出更多的隐藏特征,即衍生特征。
在一具体实现中,所述对初始特征提取模型的参数值进行筛选,获取筛选后的参数值包括:
计算所述初始特征提取模型的参数值相对于所述初始特征提取模型的灵敏度;
根据灵敏度的高低对所述初始特征提取模型的参数值进行排序,从排序后的参数值中挑选排在前预设位数的参数值作为筛选后的参数值。
利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型。
在一实施例中,所述利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型包括:在所述初始特征提取模型中,增加所述筛选后的参数值的权重以得到重构后的特征提取模型,减少所述初始特征提取模型的参数值中其他参数值的权重,这样便于特征提取模型的训练对灵敏度较高的参数对应的特征更加敏感,从而挖掘更多的隐藏特征。
将所述训练数据输入至所述重构后的特征提取模型中,得到每个样本数据的衍生特征。
在本实施例中,训练所述重构后的特征提取模型的方法与上述训练所述初始特征提取模型方法相同。所述衍生特征是一种因原始特征的变化而变化的特征,根据该原始特征可以经由深度特征提取器得到衍生特征变量,衍生特征是指用原始数据进行特征学习得到新的特征,从而挖掘隐藏在原始数据中的特征。
根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型。
所述根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型包括:
将所述每个样本数据的衍生特征及每个样本数据的原始特征进行合并,得到每个样本数据的合并后的特征;
利用随机森林变量的重要性方法,从每个样本数据的合并后的特征中筛选出每个样本数据的重要特征;
利用所述训练数据中每个样本数据的重要特征重新训练所述重构后的特 征提取模型,直至迭代终止,并得到训练好的特征提取模型。
其中变量的重要性variable importance是衡量变量重要性的指标,其利用随机森林变量的重要性方法,从每个样本数据的合并后的特征中筛选出每个样本数据的重要特征包括:
1)将每个样本数据的合并后的特征构成随机森林中的每一颗决策树,使用相应的带外数据OOB数据来计算它的带外数据误差,记为errOOB1;
2)随机地对带外数据OOB所有样本的特征X加入噪声干扰(就可以随机的改变样本在特征X处的值),再次计算它的带外数据误差,记为errOOB2;
3)假设随机森林中有Ntree棵树,那么对于特征t的重要性,构建一个目标函数,该目标函数表明某个特征随机加入噪声之后,若带外的准确率大幅度降低,则说明这个特征对于样本的分类结果影响很大,也就是说它的重要程度比较高。
获取目标数据。
在本实施例中,所述目标数据是电子设备获取的数据,例如用户上述的图像数据等等。
将所述目标数据输入至训练好的特征提取模型中,得到所述目标数据的特征。
本申请公开了一种特征提取方法,该方法包括:获取训练数据,所述训练数据包括每个样本数据对应的原始特征;利用所述训练数据训练初始特征提取模型,并得到初始特征提取模型的参数值;对初始特征提取模型的参数值进行筛选,获取筛选后的参数值;利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型;将所述训练数据输入至所述重构后的特征提取模型中,得到每个样本数据的衍生特征;根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型。本申请能更好的表示数据特征,提高特征提取的准确性。
可选地,在其他实施例中,特征提取程序还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由一个或多个处理器(本实施例为处理器12)所执行以完成本申请,本申请所称的模块是指能够完成 特定功能的一系列计算机程序指令段,用于描述特征提取程序在特征提取装置中的执行过程。
例如,参照图3所示,为本申请特征提取装置一实施例中的特征提取程序的程序模块示意图,该实施例中,特征提取程序可以被分割为获取模块10、训练模块20、筛选模块30及重构模块40,示例性地:
获取模块10获取训练数据,所述训练数据包括每个样本数据对应的原始特征;
训练模块20利用所述训练数据训练初始特征提取模型,并得到初始特征提取模型的参数值;
筛选模块30对初始特征提取模型的参数值进行筛选,获取筛选后的参数值;
重构模块40利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型;
所述训练模块20将所述训练数据输入至所述重构后的特征提取模型中,得到每个样本数据的衍生特征;
所述训练模块20根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型;
所述获取模块10获取目标数据;
所述训练模块20将所述目标数据输入至训练好的特征提取模型中,得到所述目标数据的特征。
上述获取模块10、训练模块20、筛选模块30及重构模块40等程序模块被执行时所实现的功能或操作步骤与上述实施例大体相同,在此不再赘述。
此外,本申请实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有特征提取程序,所述特征提取程序可被一个或多个处理器执行,以实现如下操作:
获取训练数据,所述训练数据包括每个样本数据对应的原始特征;
利用所述训练数据训练初始特征提取模型,并得到初始特征提取模型的 参数值;
对初始特征提取模型的参数值进行筛选,获取筛选后的参数值;
利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型;
将所述训练数据输入至所述重构后的特征提取模型中,得到每个样本数据的衍生特征;
根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型;
获取目标数据;
将所述目标数据输入至训练好的特征提取模型中,得到所述目标数据的特征。
本申请计算机可读存储介质具体实施方式与上述特征提取装置和方法各实施例基本相同,在此不作累述。
需要说明的是,上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是 利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (20)

  1. 一种特征提取方法,其特征在于,所述方法包括:
    获取训练数据,所述训练数据包括每个样本数据对应的原始特征;
    利用所述训练数据训练初始特征提取模型,并得到初始特征提取模型的参数值;
    对初始特征提取模型的参数值进行筛选,获取筛选后的参数值;
    利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型;
    将所述训练数据输入至所述重构后的特征提取模型中,得到每个样本数据的衍生特征;
    根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型;
    获取目标数据;
    将所述目标数据输入至训练好的特征提取模型中,得到所述目标数据的特征。
  2. 如权利要求1所述的特征提取方法,其特征在于,所述获取训练数据包括:
    获取原始样本数据;
    对所述原始样本数据进行预处理,得到所述训练数据,所述预处理包括以下至少一种:归一化处理、缺失值填充、噪声数据处理、不一致数据的数据清理。
  3. 如权利要求1所述的特征提取方法,其特征在于,所述初始特征提取模型包括循环神经网络模型,所述循环神经网络模型包括:输入层、隐藏层和输出层;
    输入层:用于定义元素的特征数据中不同类型的数据输入;
    隐藏层:用于利用激励函数对输入层输入的元素的特征数据进行非线性化处理;
    输出层:用于对隐藏层拟合的结果进行输出表示,输出元素的特征对应的数据类型;
    记忆单元:记忆单元在神经元内部决定是否应该写入或删除对信息的记忆,并将之前的记录的元素的特征数据、现在的记忆的元素的特征数据和当前输入的元素的特征结合在一起,对长期信息进行记录。
  4. 如权利要求1所述的特征提取方法,其特征在于,所述对初始特征提取模型的参数值进行筛选,获取筛选后的参数值包括:
    计算所述初始特征提取模型的参数值相对于所述初始特征提取模型的灵敏度;
    根据灵敏度的高低对所述初始特征提取模型的参数值进行排序,从排序后的参数值中挑选排在前预设位数的参数值作为筛选后的参数值。
  5. 如权利要求4所述的特征提取方法,其特征在于,所述利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型包括:
    在所述初始特征提取模型中,增加所述筛选后的参数值的权重以得到重构后的特征提取模型。
  6. 如权利要求1所述的特征提取方法,其特征在于,所述根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型包括:
    将所述每个样本数据的衍生特征及每个样本数据的原始特征进行合并,得到每个样本数据的合并后的特征;
    利用随机森林变量的重要性,从每个样本数据的合并后的特征中筛选出每个样本数据的重要特征;
    利用所述训练数据中每个样本数据的重要特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型。
  7. 如权利要求2至5中任一项所述的特征提取方法,其特征在于,所述根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型包括:
    将所述每个样本数据的衍生特征及每个样本数据的原始特征进行合并,得到每个样本数据的合并后的特征;
    利用随机森林变量的重要性,从每个样本数据的合并后的特征中筛选出每个样本数据的重要特征;
    利用所述训练数据中每个样本数据的重要特征重新训练所述重构后的特 征提取模型,直至迭代终止,并得到训练好的特征提取模型。
  8. 一种特征提取装置,其特征在于,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的特征提取程序,所述特征提取程序被所述处理器执行时实现如下步骤:
    获取训练数据,所述训练数据包括每个样本数据对应的原始特征;
    利用所述训练数据训练初始特征提取模型,并得到初始特征提取模型的参数值;
    对初始特征提取模型的参数值进行筛选,获取筛选后的参数值;
    利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型;
    将所述训练数据输入至所述重构后的特征提取模型中,得到每个样本数据的衍生特征;
    根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型;
    获取目标数据;
    将所述目标数据输入至训练好的特征提取模型中,得到所述目标数据的特征。
  9. 如权利要求8所述的特征提取装置,其特征在于,所述获取训练数据包括:
    获取原始样本数据;
    对所述原始样本数据进行预处理,得到所述训练数据,所述预处理包括以下至少一种:归一化处理、缺失值填充、噪声数据处理、不一致数据的数据清理。
  10. 如权利要求8所述的特征提取装置,其特征在于,所述初始特征提取模型包括循环神经网络模型,所述循环神经网络模型包括:输入层、隐藏层和输出层;
    输入层:用于定义元素的特征数据中不同类型的数据输入;
    隐藏层:用于利用激励函数对输入层输入的元素的特征数据进行非线性化处理;
    输出层:用于对隐藏层拟合的结果进行输出表示,输出元素的特征对应 的数据类型;
    记忆单元:记忆单元在神经元内部决定是否应该写入或删除对信息的记忆,并将之前的记录的元素的特征数据、现在的记忆的元素的特征数据和当前输入的元素的特征结合在一起,对长期信息进行记录。
  11. 如权利要求8所述的特征提取装置,其特征在于,所述对初始特征提取模型的参数值进行筛选,获取筛选后的参数值包括:
    计算所述初始特征提取模型的参数值相对于所述初始特征提取模型的灵敏度;
    根据灵敏度的高低对所述初始特征提取模型的参数值进行排序,从排序后的参数值中挑选排在前预设位数的参数值作为筛选后的参数值。
  12. 如权利要求11所述的特征提取装置,其特征在于,所述利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型包括:
    在所述初始特征提取模型中,增加所述筛选后的参数值的权重以得到重构后的特征提取模型。
  13. 如权利要求8所述的特征提取装置,其特征在于,所述根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型包括:
    将所述每个样本数据的衍生特征及每个样本数据的原始特征进行合并,得到每个样本数据的合并后的特征;
    利用随机森林变量的重要性,从每个样本数据的合并后的特征中筛选出每个样本数据的重要特征;
    利用所述训练数据中每个样本数据的重要特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型。
  14. 如权利要求9至12中任一项所述的特征提取装置,其特征在于,所述根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型包括:
    将所述每个样本数据的衍生特征及每个样本数据的原始特征进行合并,得到每个样本数据的合并后的特征;
    利用随机森林变量的重要性,从每个样本数据的合并后的特征中筛选出 每个样本数据的重要特征;
    利用所述训练数据中每个样本数据的重要特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型。
  15. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有特征提取程序,所述特征提取程序可被一个或者多个处理器执行,以实现如下步骤:
    获取训练数据,所述训练数据包括每个样本数据对应的原始特征;
    利用所述训练数据训练初始特征提取模型,并得到初始特征提取模型的参数值;
    对初始特征提取模型的参数值进行筛选,获取筛选后的参数值;
    利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型;
    将所述训练数据输入至所述重构后的特征提取模型中,得到每个样本数据的衍生特征;
    根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型;
    获取目标数据;
    将所述目标数据输入至训练好的特征提取模型中,得到所述目标数据的特征。
  16. 如权利要求15所述的计算机可读存储介质,其特征在于,所述获取训练数据包括:
    获取原始样本数据;
    对所述原始样本数据进行预处理,得到所述训练数据,所述预处理包括以下至少一种:归一化处理、缺失值填充、噪声数据处理、不一致数据的数据清理。
  17. 如权利要求15所述的计算机可读存储介质,其特征在于,所述初始特征提取模型包括循环神经网络模型,所述循环神经网络模型包括:输入层、隐藏层和输出层;
    输入层:用于定义元素的特征数据中不同类型的数据输入;
    隐藏层:用于利用激励函数对输入层输入的元素的特征数据进行非线性 化处理;
    输出层:用于对隐藏层拟合的结果进行输出表示,输出元素的特征对应的数据类型;
    记忆单元:记忆单元在神经元内部决定是否应该写入或删除对信息的记忆,并将之前的记录的元素的特征数据、现在的记忆的元素的特征数据和当前输入的元素的特征结合在一起,对长期信息进行记录。
  18. 如权利要求15所述的计算机可读存储介质,其特征在于,所述对初始特征提取模型的参数值进行筛选,获取筛选后的参数值包括:
    计算所述初始特征提取模型的参数值相对于所述初始特征提取模型的灵敏度;
    根据灵敏度的高低对所述初始特征提取模型的参数值进行排序,从排序后的参数值中挑选排在前预设位数的参数值作为筛选后的参数值。
  19. 如权利要求18所述的计算机可读存储介质,其特征在于,所述利用筛选后的参数值重构所述初始特征提取模型,得到重构后的特征提取模型包括:
    在所述初始特征提取模型中,增加所述筛选后的参数值的权重以得到重构后的特征提取模型。
  20. 如权利要求15-19任一项所述的计算机可读存储介质,其特征在于,所述根据每个样本数据的衍生特征及每个样本数据对应的原始特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型包括:
    将所述每个样本数据的衍生特征及每个样本数据的原始特征进行合并,得到每个样本数据的合并后的特征;
    利用随机森林变量的重要性,从每个样本数据的合并后的特征中筛选出每个样本数据的重要特征;
    利用所述训练数据中每个样本数据的重要特征重新训练所述重构后的特征提取模型,直至迭代终止,并得到训练好的特征提取模型。
PCT/CN2019/118011 2019-05-15 2019-11-13 特征提取方法、装置及计算机可读存储介质 WO2020228283A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910401822.3 2019-05-15
CN201910401822.3A CN110222087B (zh) 2019-05-15 2019-05-15 特征提取方法、装置及计算机可读存储介质

Publications (1)

Publication Number Publication Date
WO2020228283A1 true WO2020228283A1 (zh) 2020-11-19

Family

ID=67821146

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/118011 WO2020228283A1 (zh) 2019-05-15 2019-11-13 特征提取方法、装置及计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN110222087B (zh)
WO (1) WO2020228283A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113158576A (zh) * 2021-04-30 2021-07-23 中国银行股份有限公司 基于有监督学习的etc客户识别模型构建方法及装置
CN114070602A (zh) * 2021-11-11 2022-02-18 北京天融信网络安全技术有限公司 Http隧道检测方法、装置、电子设备和存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110222087B (zh) * 2019-05-15 2023-10-17 平安科技(深圳)有限公司 特征提取方法、装置及计算机可读存储介质
CN111738819A (zh) * 2020-06-15 2020-10-02 中国建设银行股份有限公司 表征数据筛选方法、装置和设备
CN112328909B (zh) * 2020-11-17 2021-07-02 中国平安人寿保险股份有限公司 信息推荐方法、装置、计算机设备及介质
CN112434323A (zh) * 2020-12-01 2021-03-02 Oppo广东移动通信有限公司 模型参数获取方法、装置、计算机设备及存储介质
CN113255933A (zh) * 2021-06-01 2021-08-13 上海商汤科技开发有限公司 特征工程和图网络生成方法和装置、分布式系统
CN113434295B (zh) * 2021-06-30 2023-06-20 平安科技(深圳)有限公司 基于边缘计算的农田监控方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104679960A (zh) * 2015-03-13 2015-06-03 上海集成电路研发中心有限公司 一种射频变容器的统计建模方法
CN108198625A (zh) * 2016-12-08 2018-06-22 北京推想科技有限公司 一种分析高维医疗数据的深度学习方法和装置
CN109685051A (zh) * 2018-11-14 2019-04-26 国网上海市电力公司 一种基于电网系统的红外图像故障诊断系统
CN110222087A (zh) * 2019-05-15 2019-09-10 平安科技(深圳)有限公司 特征提取方法、装置及计算机可读存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10318882B2 (en) * 2014-09-11 2019-06-11 Amazon Technologies, Inc. Optimized training of linear machine learning models
CN108205766A (zh) * 2016-12-19 2018-06-26 阿里巴巴集团控股有限公司 信息推送方法、装置及系统
CN109034201B (zh) * 2018-06-26 2022-02-01 创新先进技术有限公司 模型训练及规则挖掘方法和系统
CN108984683B (zh) * 2018-06-29 2021-06-25 北京百度网讯科技有限公司 结构化数据的提取方法、系统、设备及存储介质
CN108960436A (zh) * 2018-07-09 2018-12-07 上海应用技术大学 特征选择方法
CN109213805A (zh) * 2018-09-07 2019-01-15 东软集团股份有限公司 一种实现模型优化的方法及装置
CN109447960A (zh) * 2018-10-18 2019-03-08 神州数码医疗科技股份有限公司 一种对象识别方法和装置
CN109635953A (zh) * 2018-11-06 2019-04-16 阿里巴巴集团控股有限公司 一种特征衍生方法、装置及电子设备
CN109636421A (zh) * 2018-12-13 2019-04-16 平安医疗健康管理股份有限公司 基于机器学习的就诊数据异常识别方法、设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104679960A (zh) * 2015-03-13 2015-06-03 上海集成电路研发中心有限公司 一种射频变容器的统计建模方法
CN108198625A (zh) * 2016-12-08 2018-06-22 北京推想科技有限公司 一种分析高维医疗数据的深度学习方法和装置
CN109685051A (zh) * 2018-11-14 2019-04-26 国网上海市电力公司 一种基于电网系统的红外图像故障诊断系统
CN110222087A (zh) * 2019-05-15 2019-09-10 平安科技(深圳)有限公司 特征提取方法、装置及计算机可读存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113158576A (zh) * 2021-04-30 2021-07-23 中国银行股份有限公司 基于有监督学习的etc客户识别模型构建方法及装置
CN114070602A (zh) * 2021-11-11 2022-02-18 北京天融信网络安全技术有限公司 Http隧道检测方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN110222087A (zh) 2019-09-10
CN110222087B (zh) 2023-10-17

Similar Documents

Publication Publication Date Title
WO2020228283A1 (zh) 特征提取方法、装置及计算机可读存储介质
WO2021042521A1 (zh) 一种合同自动生成方法、计算机设备及计算机非易失性存储介质
US11416768B2 (en) Feature processing method and feature processing system for machine learning
CN105184160B (zh) 一种基于API对象调用关系图的Android手机平台应用程序恶意行为检测的方法
WO2021109928A1 (zh) 机器学习方案模板的创建方法、使用方法及装置
US20170277518A1 (en) Converting visual diagrams into code
CN108681746A (zh) 一种图像识别方法、装置、电子设备和计算机可读介质
CN108038052A (zh) 自动化测试管理方法、装置、终端设备及存储介质
CN106777177A (zh) 检索方法和装置
CN108520196A (zh) 奢侈品辨别方法、电子装置及存储介质
CN109241669A (zh) 一种自动建模方法、装置及其存储介质
US20180174288A1 (en) SCORE WEIGHTS FOR USER INTERFACE (ui) ELEMENTS
CN107358247A (zh) 一种确定流失用户的方法及装置
DE102021133809A1 (de) Verfahren und vorrichtung zur automatischen detektion von softwarefehlern
CN107391383B (zh) 一种应用程序界面的测试方法和测试系统
CN106651973A (zh) 图像结构化方法及装置
CN108008942A (zh) 对数据记录进行处理的方法及系统
CN107229731A (zh) 用于分类数据的方法和装置
CN113537496A (zh) 一种深度学习模型可视化构建系统及其应用和设计方法
CN110781925A (zh) 软件页面的分类方法、装置、电子设备及存储介质
CN109690571A (zh) 基于学习的组标记系统和方法
CN110276382A (zh) 基于谱聚类的人群分类方法、装置及介质
CN113672520A (zh) 测试案例的生成方法、装置、电子设备及存储介质
CN113821296B (zh) 可视化界面生成方法、电子设备及存储介质
CN106708729A (zh) 代码缺陷的预测方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19928382

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19928382

Country of ref document: EP

Kind code of ref document: A1