WO2021151296A1 - 多任务分类方法、装置、计算机设备及存储介质 - Google Patents

多任务分类方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
WO2021151296A1
WO2021151296A1 PCT/CN2020/118888 CN2020118888W WO2021151296A1 WO 2021151296 A1 WO2021151296 A1 WO 2021151296A1 CN 2020118888 W CN2020118888 W CN 2020118888W WO 2021151296 A1 WO2021151296 A1 WO 2021151296A1
Authority
WO
WIPO (PCT)
Prior art keywords
task
target
learning model
training sample
network
Prior art date
Application number
PCT/CN2020/118888
Other languages
English (en)
French (fr)
Inventor
郑立颖
徐亮
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2021151296A1 publication Critical patent/WO2021151296A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Definitions

  • This application relates to the field of artificial intelligence technology, and in particular to a multi-task classification method, device, computer equipment, and storage medium.
  • an artificial intelligence model is used for task processing in the prior art, a model needs to be trained separately for each individual task. For example, in an intelligent interview, there are multiple subtasks such as ability assessment, resume recognition, and intelligent answering, and multiple models need to be trained for these multiple subtasks.
  • the inventor realizes that the number of corpora for each subtask is not large, which results in a poor effect of separately training a model for each subtask and low model processing efficiency. Therefore, how to improve the model processing efficiency of each subtask becomes an urgent problem to be solved when there is not much subtask corpus.
  • the first aspect of the embodiments of the present application provides a multi-task classification method, and the multi-task classification model training method includes:
  • the training sample is a single-task training sample
  • determine the target network subject corresponding to the task label in the initial first multi-task learning model and train the training sample based on the target network subject to obtain Target first multi-task learning model
  • the detection result is that the training sample is a multi-task training sample
  • the task to be classified is classified based on the target first multi-task learning model or the target second multi-task learning model and the classification result is output.
  • the second aspect of the embodiments of the present application further provides a multi-task classification device, and the multi-task classification model training device includes:
  • the sample acquisition module is used to acquire training samples and task labels of the training samples
  • the sample detection module is used to detect whether the training sample is a single task training sample
  • the first model acquisition module is used to determine the target network agent corresponding to the task label in the initial first multi-task learning model when the detection result is that the training sample is a single task training sample, based on the target network agent pair
  • the training samples are trained to obtain the target first multi-task learning model
  • the second model acquisition module is used to determine the target classifier corresponding to the task label of each task training sample in the initial second multi-task learning model when the detection result is that the training sample is a multi-task training sample, based on the The target classifier trains the corresponding training samples to obtain the target second multi-task learning model;
  • the classification processing module classifies tasks to be classified based on the target first multi-task learning model or the target second multi-task learning model and outputs a classification result.
  • a third aspect of the embodiments of the present application further provides a computer device, the computer device includes a processor, and the processor is configured to execute the computer program stored in the memory to implement the following steps:
  • the training sample is a single-task training sample
  • determine the target network subject corresponding to the task label in the initial first multi-task learning model and train the training sample based on the target network subject to obtain Target first multi-task learning model
  • the detection result is that the training sample is a multi-task training sample
  • the task to be classified is classified based on the target first multi-task learning model or the target second multi-task learning model and the classification result is output.
  • the fourth aspect of the embodiments of the present application also provides a computer-readable storage medium having a computer program stored on the computer-readable storage medium, and when the computer program is executed by a processor, the following steps are implemented:
  • the training sample is a single-task training sample
  • determine the target network subject corresponding to the task label in the initial first multi-task learning model and train the training sample based on the target network subject to obtain Target first multi-task learning model
  • the detection result is that the training sample is a multi-task training sample
  • the task to be classified is classified based on the target first multi-task learning model or the target second multi-task learning model and the classification result is output.
  • Fig. 1 is a flowchart of a multi-task classification method provided by the first embodiment of the present application.
  • Fig. 2 is a schematic structural diagram of a computer device according to an embodiment of the present application.
  • Fig. 3 is an exemplary functional module diagram of the computer device shown in Fig. 2.
  • FIG. 1 is a flowchart of the multi-task classification method provided by the first embodiment of the present application.
  • the multi-task classification method may be applied to an intelligent interview scenario. As shown in FIG. 1, the multi-task classification method may include the following steps:
  • the training samples are used to train an artificial neural network model, and the specific type of the training samples may be determined according to the actual situation of the task.
  • the training sample includes a single-task training sample and a multi-task training sample, the single-task training sample is a training sample that contains only one task, and the multi-task training sample is a training sample that contains multiple tasks.
  • the multiple tasks may be tasks that perform different processing on the same data, and the processing results of the multiple tasks may not affect each other.
  • the training samples include text corpus, category labels and task labels.
  • the category labels and task labels may be manually annotated or obtained by other means.
  • the category label is used to identify the output category of the current training sample, and the task label is used to identify the task to which the current training sample belongs.
  • the training samples are set according to a preset sample format, and the task tags are set at designated positions.
  • Obtaining the task label of the single-task training sample may include: determining a predetermined position of the training sample; acquiring the label at the predetermined position as a task label.
  • the training samples may be mentality positivity score data, interviewer question and answer matching data, resume recognition data, and the like.
  • the mentality positive degree score data can determine the mentality positiveness of the interviewer
  • the interviewer's question and answer matching data can intelligently match the answers to the interviewer's questions
  • the resume identification data can determine the interviewer's personal resume information.
  • the single-task training sample may include 128 mentality positivity scoring data or 128 resume recognition data.
  • the training sample is a multi-task training sample
  • the multi-task training sample may consist of 64 mentality positivity scoring data and 64 interviewee question-and-answer matching data, and the order of the samples is randomly shuffled.
  • the above training samples can be set according to actual needs, and there is no limitation here.
  • step S12 Detect whether the training sample is a single-task training sample, and when the detection result is that the training sample is a single-task training sample, perform step S13; when the detection result is that the training sample is a multi-task training sample, perform step S13 S14.
  • corresponding multi-task learning models are set for different types of training samples. For example, for a single-task training sample, a first multi-task learning model can be set; for a multi-task training sample, a second multi-task learning model can be set.
  • the model processing effect and processing rate can be improved.
  • the detecting whether the training sample is a single-task training sample includes: obtaining task labels of the training samples; detecting whether the task labels are consistent; when the detection result is the task label When they are inconsistent, the training sample is determined to be a multi-task training sample; when the detection result is that the task labels are consistent, the training sample is determined to be a single-task training sample.
  • the beginning of training it may be the initialized first multi-task learning model, and then the training samples are input into the initial first multi-task learning model, and finally an output result is obtained, and the training manual
  • the purpose of the neural network model is to make the output result of the artificial neural network model infinitely close to the category label corresponding to the training sample.
  • the model parameters are artificially initialized, the output result and the category label are quite different, so each time the output result is obtained, the output result and category label can be substituted into the preset loss function to calculate a loss Then use the loss value to update the model parameters.
  • the initial first multi-task learning model includes a network interaction layer, a number of network subjects and first classifiers, and the number of network subjects is the same as that of the first classifiers, so
  • the network interaction layer is an interaction layer shared by multiple network entities.
  • This application takes the number of network entities as two examples.
  • both the network entity 1 and the network entity 2 before the network interaction layer are the first embedding layer (embedding layer), and the Both the network main body 1 and the network main body 2 after the network interaction layer are the first preset encoder, and the first preset encoder includes a 2-layer transformer encoder or a 2-layer bilstm encoder.
  • the first preset encoder may be a 2-layer bilstm encoder.
  • the first preset coding layer is a corresponding first classifier.
  • the first embedding layer can be used to perform vector characterization processing on the training samples to obtain a semantic characterization vector of each training sample;
  • the network interaction layer can be used to calculate the semantic characterization Vector attention weight (attention value);
  • the first preset encoder can be used to perform semantic recognition processing on the semantic representation vector to obtain a semantic feature vector;
  • the first classifier can be used to evaluate the semantic feature The vector performs classification processing, and the classification prediction result is obtained.
  • the task label corresponds to the target network subject of the initial first multi-task learning model and the target first classifier
  • the task label corresponds to the network subject and the target
  • the relationship between the first classifiers may be represented by a mapping table, and by querying the mapping table, the target network subject and the target first classifier of the initial first multi-task learning model corresponding to the task label can be determined.
  • the training samples are trained based on the target network subject to obtain the target first multi-task learning model corresponding to the task label.
  • the training the training samples based on the target network main body to obtain the target first multi-task learning model includes: using the training samples to train the network interaction layer and the target network main body from the bottom up Obtain the first network interaction layer parameter and the first network agent parameter; use the backpropagation algorithm to update the first network interaction layer parameter to obtain the second network interaction parameter, and update the first network agent parameter to obtain the second network agent parameter ; Based on the second network interaction parameters and the second network subject parameters to obtain the target first multi-task learning model corresponding to the task tag.
  • the relevant parameters of the model are stored in the blockchain.
  • said using the training samples to train the network interaction layer and the target network agent from the bottom up to obtain the first network interaction layer parameters and the first network agent parameters includes: invoking the corresponding target network agent
  • the first embedding layer performs vector characterization processing on the training samples to obtain the semantic characterization vector of each training sample; calls the network interaction layer to calculate the attention weight of the semantic characterization vector; calls according to the attention weight
  • a first preset encoder performs semantic recognition processing on the semantic representation vector to obtain a semantic feature vector.
  • the first preset encoder includes a 2-layer transformer encoder or a 2-layer BiLstm encoder; calling the target first classification
  • the device trains the semantic feature vector to obtain the first network interaction layer parameter and the first network main body parameter.
  • the single task training sample may be 128 mentality positivity score data; when a single task is resume recognition, for the network subject 2, the A single task training sample can identify data for 128 resumes.
  • Two single tasks call the first multi-task learning model for alternate training. For example, when the single-task training sample is mental positivity score data, only the parameters of the network agent 1 and the network interaction layer are iteratively updated this time, and the parameters of the network agent 2 remain unchanged. When the single task training sample is resume recognition data, only the parameters of the network main body 2 and the network interaction layer are iteratively updated this time, and the parameters of the network main body 1 remain unchanged.
  • the method when the detection result is that the training sample is a multi-task training sample, the method further includes: acquiring a task label of the training sample; calling an initial second multi-task learning model, so The initial second multi-task learning model includes an input layer, a second embedding layer, a second preset encoder, and a number of second classifiers; the target classifier is determined according to the task label; the corresponding training is performed based on the target classifier The sample is trained to obtain the target second multi-task learning model corresponding to the task label.
  • the second embedding layer can be used to perform vector characterization processing on the training samples to obtain a semantic characterization vector of each training sample; the second preset encoder can be used to perform semantic recognition processing on the semantic characterization vector To obtain semantic feature vectors corresponding to different second classifiers; the second classifier can be used to classify the semantic feature vectors to obtain classification prediction results.
  • the second preset encoder may be a 2-layer transformer encoder.
  • the training of the corresponding training sample based on the target classifier to obtain the target second multi-task learning model includes: using the training sample to classify the second multitask from the bottom up
  • the second classifier parameter is obtained by training the second classifier parameter; the second classifier parameter is updated by the backpropagation algorithm to obtain the third classifier parameter; the second classifier parameter corresponding to the task label is obtained based on the third classifier parameter.
  • the training samples can be processed according to the training algorithm of the artificial neural network model, and the iteration related model parameters can be continuously updated, and finally the number of iterations reaches When a certain number or related model parameters are in a convergent state, the training of the multi-task learning model can be stopped, and then a trained multi-task learning model is obtained, that is, the related model parameters of the optimized multi-task learning model are obtained.
  • the related model parameters include shared parameters and task parameters.
  • the shared parameters may be parameters shared by multiple tasks, and the task parameters may be parameters unique to a single task.
  • the method before obtaining the target first multi-task learning model or the target second multi-task learning model, the method further includes: obtaining test samples; and inputting the test samples to the first multi-task learning model whose parameters have been updated.
  • the task learning model or the second multi-task learning model to obtain the classification test result; calculate the loss value according to the classification test result; detect whether the loss value is in the preset loss range; when the detection result is that the loss value is in the preset loss In the range, the trained model is used as the target first multi-task learning model or the target second multi-task learning model.
  • the loss value of the classification test result can be calculated by calling the related loss function, and the preset loss range is preset.
  • the first multi-task learning model based on the target or the second multi-task learning model based on the target classifies a task to be classified and outputting a classification result includes: detecting whether the task to be classified is Is a single classification task; when the detection result is that the task to be classified is a single classification task, call the target first multi-task learning model to classify the task to be classified and output the classification result; when the detection result is the task to be classified When classifying tasks, call the target second multi-task learning model to classify the tasks to be classified and output the classification results.
  • the tasks to be classified may include a mentality positivity scoring task, a resume recognition task, and an interviewer question-and-answer matching task.
  • the task to be classified can be a single classification task or a multi-classification task.
  • the task to be classified includes a randomly sorted mentality positivity scoring task and an interviewer's question and answer matching task.
  • the task to be classified includes a single mentality positivity scoring task or a single resume recognition task.
  • the invoking the target first multi-task learning model for classification and outputting the classification result includes: inputting the task to be classified; invoking the first embedding layer pair corresponding to the target network main body
  • the task to be classified is subjected to vector characterization processing to obtain the semantic characterization vector of each task to be classified; the network interaction layer is called to calculate the attention weight of the semantic characterization vector; the first prediction is called according to the attention weight.
  • the encoder performs semantic recognition processing on the semantic representation vector to obtain the semantic feature vector
  • the first preset encoder includes a 2-layer transformer encoder or a 2-layer BiLstm encoder;
  • the semantic feature vector is used for classification processing, and the classification result is obtained.
  • the category of a single classification task included in the same batch may be one or multiple.
  • the task can be processed by alternately calling the target first multi-task learning model.
  • a single classification task of multiple categories includes a single mentality positive degree scoring task or a single resume recognition task, the single mentality positive degree scoring task corresponds to the network entity 1, and the single resume recognition task corresponds to the network The main body 2 corresponds.
  • the network subject 1, the network interaction layer and the classifier 1 in the target first multi-task learning model can be called to process the data to obtain the interviewer’s mentality positivity score, and the interviewer’s
  • the range of scores from low to high positive mentality can be [1,2,3].
  • the network subject 2, the network interaction layer and the classifier 2 in the target first multi-task learning model can be called to process the data to obtain the sequence label of the resume text.
  • the sequence label of the resume text can be Including company name, school name, major, etc.
  • the invoking the target second multi-task learning model to classify the task to be classified and outputting the classification result includes: invoking the input layer to receive the training sample; invoking the second The embedding layer performs vector characterization processing on the training samples to obtain the semantic characterization vector of each training sample; calls the second preset encoder to perform semantic recognition processing on the semantic characterization vector to obtain multiple second classifiers corresponding to different Semantic feature vector; calling the second classifier to perform classification processing on the semantic feature vector to obtain a classification prediction result.
  • the task to be classified may include a randomly sorted mentality positivity scoring task and an interviewer's question-and-answer matching task.
  • the mentality positivity scoring task corresponds to the classifier 1
  • the interviewer question answer matching task corresponds to the classifier 2.
  • the multi-classification task is input to the target second multi-task learning module, and the task is processed through the corresponding classifier.
  • the interviewer's mentality positivity score can be obtained through the classifier 1
  • the interviewer's mentality positivity score range from low to high may be [1,2,3].
  • the interviewer's question-answer matching data can be obtained through the classifier 2, and the range of the classification sequence number of the interviewer's question-answer matching data is [1,10].
  • the model processing rate can be increased, thereby increasing the rate of the tasks to be classified; in addition, this application can target the sub-task corpus.
  • the method of multi-task learning and sharing network is adopted to improve the model processing effect and processing efficiency of each subtask.
  • FIG. 2 is a schematic structural diagram of a computer device according to an embodiment of the present application.
  • the computer device 1 includes a memory 10 in which the multi-task classification device 100 is stored.
  • the computer device 1 may be an electronic device with functions of data processing, analysis, program execution, and display, such as a computer, a tablet computer, or a personal digital assistant.
  • the multi-task classification device 100 can obtain training samples and task labels of the training samples; detect whether the training samples are single-task training samples; when the detection result is that the training samples are single-task training samples, determine the initial A target network subject corresponding to the task label in a multi-task learning model trains the training sample based on the target network subject to obtain a target first multi-task learning model; when the detection result is that the training sample is multiple During task training samples, determine the target classifier corresponding to the task label of each task training sample in the initial second multi-task learning model, and train the corresponding training samples based on the target classifier to obtain the target second multi-task learning Model; based on the target first multi-task learning model or the target second multi-task learning model to classify tasks to be classified and output classification results.
  • the computer device 1 may also include a display screen 20 and a processor 30.
  • the memory 10 and the display screen 20 may be electrically connected to the processor 30 respectively.
  • the memory 10 may be different types of storage devices for storing various types of data.
  • it can be the memory and internal memory of the computer device 1, and can also be a memory card that can be externally connected to the computer device 1, such as flash memory, SM card (Smart Media Card), SD card (Secure Digital Card, secure digital card) Card) etc.
  • the memory 10 may include a non-volatile memory and/or a volatile memory, such as a hard disk, a memory, a plug-in hard disk, a smart memory card (Smart Media Card, SMC), and a secure digital (Secure Digital, SD) card, flash memory card (Flash Card), at least one magnetic disk storage device, flash memory device, or other non-volatile solid state storage device.
  • the memory 10 is used to store various types of data, for example, various types of applications (Applications) installed in the computer device 1, and data set and obtained by applying the above-mentioned multi-task classification method.
  • the display screen 20 is installed in the computer device 1 for displaying information.
  • the processor 30 is used to execute the multi-task classification method and various software installed in the computer device 1, such as an operating system and application display software.
  • the processor 30 includes, but is not limited to, a processor (Central Processing Unit, CPU), a Micro Controller Unit (Micro Controller Unit, MCU) and other devices for interpreting computer instructions and processing data in computer software.
  • a processor Central Processing Unit, CPU
  • MCU Micro Controller Unit
  • the multi-task classification apparatus 100 may include one or more modules, and the one or more modules are stored in the memory 10 of the computer device 1 and configured to be operated by one or more processors (this embodiment is A processor 30) executes to complete the embodiment of the present application.
  • the multi-task classification device 100 may include a sample acquisition module 101, a sample detection module 102, a first model acquisition module 103, a second model acquisition module 104, and a classification processing module 105.
  • the module referred to in the embodiment of the present application may be a program segment that completes a specific function, and is more suitable for describing the execution process of software in the processor 30 than a program.
  • the multi-task classification apparatus 100 may include some or all of the functional modules shown in FIG. 3, and the functions of the modules will be described in detail below. It should be noted that the same noun related nouns and specific explanations in each embodiment of the above multi-task classification method can also be applied to the following introduction to the functions of each module. To save space and avoid repetition, I won’t repeat them here.
  • the sample acquisition module 101 can be used to acquire training samples.
  • the sample detection module 102 can be used to detect whether the training sample is a single task training sample.
  • the first model acquisition module 103 may be used to determine the target network agent corresponding to the task label in the initial first multi-task learning model when the detection result is that the training sample is a single task training sample, based on the target network agent The training samples are trained to obtain the target first multi-task learning model.
  • the second model acquisition module 104 may be used to determine the target classifier corresponding to the task label of each task training sample in the initial second multi-task learning model when the detection result is that the training sample is a multi-task training sample.
  • the target classifier trains the corresponding training samples to obtain the target second multi-task learning model.
  • the classification processing module 105 may classify tasks to be classified based on the target first multi-task learning model or the target second multi-task learning model and output the classification result.
  • the embodiments of the present application also provide a computer-readable storage medium, which may include non-volatile and/or volatile memory, on which a computer program is stored, and the computer program is executed by the processor 30. When executed, the steps of the multi-task classification method in any of the above embodiments are realized.
  • the integrated module/unit of the multi-task classification apparatus 100/computer equipment is implemented in the form of a software functional unit and sold or used as an independent product, it can be stored in a computer readable storage medium.
  • this application implements all or part of the processes in the above-mentioned implementation methods, and can also be completed by instructing relevant hardware through a computer program.
  • the computer program can be stored in a computer-readable storage medium. When the program is executed by the processor 30, the steps of the foregoing method embodiments can be implemented.
  • the computer program includes computer program code, and the computer program code may be in the form of source code, object code, executable file, or some intermediate forms.
  • the computer-readable storage medium may include: any entity or device capable of carrying the computer program code, recording medium, U disk, mobile hard disk, magnetic disk, optical disk, computer memory, read-only memory (ROM, Read-Only Memory). )Wait.
  • the so-called processor 30 may be a central processing unit (Central Processing Unit, CPU), other general processors, digital signal processors (Digital Signal Processor, DSP), application specific integrated circuits (Application Specific Integrated Circuit, ASIC), Field-Programmable Gate Array (FPGA) or other programmable logic devices, discrete gates or transistor logic devices, discrete hardware components, etc.
  • the general-purpose processor can be a microprocessor or the processor can also be any conventional processor, etc.
  • the processor 30 is the control center of the multi-task classification device 100/computer equipment 1, and is connected by various interfaces and lines. The entire multi-task classification device 100/each part of the computer equipment 1.
  • the memory 10 is used to store the computer program and/or module, and the processor 30 runs or executes the computer program and/or module stored in the memory 10 and calls the data stored in the memory 10,
  • the various functions of the multi-task classification device 100/computer equipment 1 are realized.
  • the memory 10 may mainly include a storage program area and a storage data area.
  • the storage program area may store an operating system, an application program required by at least one function (such as a sound playback function, an image playback function, etc.), etc.; the storage data area may Data and the like created in accordance with the use of the computer device 1 are stored.
  • the blockchain referred to in this application is a new application mode of computer technology such as distributed data storage, point-to-point transmission, consensus mechanism, and encryption algorithm.
  • Blockchain essentially a decentralized database, is a series of data blocks associated with cryptographic methods. Each data block contains a batch of network transaction information for verification. The validity of the information (anti-counterfeiting) and the generation of the next block.
  • the blockchain can include the underlying platform of the blockchain, the platform product service layer, and the application service layer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种多任务分类方法、装置、计算机设备及存储介质,该方法包括:获取训练样本及任务标签(S11);检测训练样本是否为单一任务训练样本(S12);当检测结果为是时,确定初始第一多任务学习模型中目标网络主体,并对所述训练样本进行训练,得到目标第一多任务学习模型(S13);当检测结果为否时,确定初始第二多任务学习模型中目标分类器,并对对应的训练样本进行训练,得到目标第二多任务学习模型(S14);基于目标第一多任务学习模型或者目标第二多任务学习模型对待分类任务进行分类并输出分类结果(S15)。该方法能够针对子任务语料不多的情况,提高各个子任务的模型处理效果及处理效率。

Description

多任务分类方法、装置、计算机设备及存储介质
本申请要求于2020年07月22日提交中国专利局、申请号为CN 202010713422.9、名称为“多任务分类方法、装置及相关设备”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及人工智能技术领域,尤其涉及一种多任务分类方法、装置、计算机设备及存储介质。
背景技术
随着人工智能技术的发展,越来越多的应用领域大量使用人工智能模型执行任务处理。现有技术中利用人工智能模型进行任务处理时,对于每个单独的任务需要单独训练一个模型。例如,在智能面试时,存在能力评估、简历识别及智能回答等多个子任务,需要针对这多个子任务训练多个模型。
技术问题
发明人意识到,各个子任务的语料数量并不多,导致针对每一子任务单独训练模型的效果不佳,模型处理效率较低。因此,如何在子任务语料不多时,提高各个子任务的模型处理效率成为亟待解决的问题。
技术解决方案
本申请实施例第一方面提供一种多任务分类方法,所述多任务分类模型训练方法包括:
获取训练样本及所述训练样本的任务标签;
检测所述训练样本是否为单一任务训练样本;
当检测结果为所述训练样本为单一任务训练样本时,确定初始第一多任务学习模型中与所述任务标签对应的目标网络主体,基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型;
当检测结果为所述训练样本为多任务训练样本时,确定初始第二多任务学习模型中与每个任务训练样本的任务标签对应的目标分类器,基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型;
基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果。
本申请实施例第二方面还提供一种多任务分类装置,所述多任务分类模型训练装置包括:
样本获取模块,用于获取训练样本及所述训练样本的任务标签;
样本检测模块,用于检测所述训练样本是否为单一任务训练样本;
第一模型获取模块,用于当检测结果为所述训练样本为单一任务训练样本时,确定初始第一多任务学习模型中与所述任务标签对应的目标网络主体,基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型;
第二模型获取模块,用于当检测结果为所述训练样本为多任务训练样本时,确定初始第二多任务学习模型中与每个任务训练样本的任务标签对应的目标分类器,基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型;
分类处理模块,基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果。
本申请实施例第三方面还提供一种计算机设备,所述计算机设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现以下步骤:
获取训练样本及所述训练样本的任务标签;
检测所述训练样本是否为单一任务训练样本;
当检测结果为所述训练样本为单一任务训练样本时,确定初始第一多任务学习模型中与所述任务标签对应的目标网络主体,基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型;
当检测结果为所述训练样本为多任务训练样本时,确定初始第二多任务学习模型中与每个任务训练样本的任务标签对应的目标分类器,基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型;
基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果。
本申请实施例第四方面还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取训练样本及所述训练样本的任务标签;
检测所述训练样本是否为单一任务训练样本;
当检测结果为所述训练样本为单一任务训练样本时,确定初始第一多任务学习模型中与所述任务标签对应的目标网络主体,基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型;
当检测结果为所述训练样本为多任务训练样本时,确定初始第二多任务学习模型中与每个任务训练样本的任务标签对应的目标分类器,基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型;
基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果。
附图说明
图1是本申请第一实施方式提供的多任务分类方法的流程图。
图2是本申请一实施方式的计算机设备的结构示意图。
图3是图2所示的计算机设备的示例性的功能模块图。
如下具体实施方式将结合上述附图进一步说明本申请。
本发明的实施方式
为了能够更清楚地理解本申请的上述目的、特征和优点,下面结合附图和具体实施例对本申请进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本申请,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请。
请参阅图1,图1是本申请第一实施方式提供的多任务分类方法的流程图。所述多任务分类方法可以应用于智能面试场景,如图1所示,所述多任务分类方法可以包括如下步骤:
S11、获取训练样本及所述训练样本的任务标签。
在本申请的至少一实施例中,所述训练样本用于训练人工神经网络模型的,所述训练样本的具体类型可根据任务的实际情况而定。所述训练样本包括单一任务训练样本与多任务训练样本,所述单一任务训练样本为仅包含一个任务的训练样本,所述多任务训练样本为包含多个任务的训练样本。在一实施例中,多个任务可以是对于同一数据进行不同处理的任务,并且多个任务的处理结果之间可以互不影响。所述训练样本包括文本语料、类别标签与任务标签,所述类别标签与任务标签可以是人工标注的,或者通过其他方式获得的。所述类别标签用于标识当前训练样本的输出类别,所述任务标签用于标识当前训练样本的所属任务。
在本申请的至少一实施例中,为提高模型训练效率,所述训练样本按照预设样本格式设置,所述任务标签设定于指定位置。获取所述单一任务训练样本的任务标签可以包括:确定所述训练样本的预定位置;获取所述预定位置处的标签为任务标签。
在本申请的至少一实施例中,当所述多任务分类方法应用于智能面试场景时,所述训练样本可以为心态积极程度评分数据、面试者问答匹配数据以及简历识别数据等。通过所述心态积极程度评分数据能够确定面试者的心态积极程度,通过面试者问答匹配数据能够针对面试者的提问智能匹配出答案,通过简历识别数据能够确定面试者的个人简历信息。
示例性地,当所述训练样本为单一任务训练样本时,所述单一任务训练样本可以由128个心态积极程度评分数据或者128个简历识别数据。当所述训练样本为多任务训练样本时,所述多任务训练样本可以由64个心态积极程度评分数据与64个面试者问答匹配数据组成,并且随机打乱样本的顺序。上述训练样本可根据实际需求设置,在此不作限制。
S12、检测所述训练样本是否为单一任务训练样本,当检测结果为所述训练样本为单一任务训练样本时,执行步骤S13;当检测结果为所述训练样本为多任务训练样本时,执行步骤S14。
在本申请的至少一实施例中,针对不同类型的训练样本,设置有对应的多任务学习模型。例如,针对单一任务训练样本,可设置第一多任务学习模型;针对多任务训练样本,可以设置第二多任务学习模型。通过对不同类型的训练样本,设置相应的多任务学习模型,能够提高模型处理效果及处理速率。
在本申请的至少一实施例中,所述检测所述训练样本是否为单一任务训练样本包括:获取所述训练样本的任务标签;检测所述任务标签是否一致;当检测结果为所述任务标签不一致时,确定所述训练样本为多任务训练样本;当检测结果为所述任务标签一致时,确定所述训练样本为单一任务训练样本。
S13、确定初始第一多任务学习模型中与所述任务标签对应的目标网络主体,基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型。
在本申请的至少一实施例中,训练开始时,可以为初始化的第一多任务学习模型,之后将训练样本输入至所述初始第一多任务学习模型中,最终得到一个输出结果,训练人工神经网络模型的目的是为了使得人工神经网络模型的输出结果与该训练样本对应的类别标签无限接近。初始训练时,由于模型参数是人为初始化得到的,输出结果与类别标签的相差较大,因此每次得到输出结果后,可以将输出结果与类别标签代入预先设定好的损失函数计算得到一个损失值,之后再利用损失值对模型参数进行更新,在利用大量的训练样本重复迭代上述过程后,最终会得到能够使得人工神经网络模型的输出结果与类别标签很接近的一组模型相关参数。
在本申请的至少一实施例中,所述初始第一多任务学习模型包括网络交互层、若干个网络主体与第一分类器,所述网络主体与所述第一分类器的数量一致,所述网络交互层为多个网络主体共享的交互层。本申请以网络主体的数量为2个举例,在所述第一多任务学习模型中,所述网络交互层前的网络主体1与网络主体2均为第一嵌入层(embedding层),所述网络交互层之后的网络主体1与网络主体2均为第一预设编码器,所述第一预设编码器包括2层transformer编码器或2层bilstm编码器,优选地,当子任务为序列标注任务时,所述第一预设编码器可以为2层bilstm编码器。所述第一预设编码层之后为对应的第一分类器。
在本申请的至少一实施例中,所述第一嵌入层可用于对所述训练样本进行向量表征处理,得到每个训练样本的语义表征向量;所述网络交互层可用于计算所述语义表征向量的注意力权值(attention值);所述第一预设编码器可用于对所述语义表征向量进行语义识别处理,得到语义特征向量;所述第一分类器可用于对所述语义特征向量进行分类处理,得到分类预测结果。
在本申请的至少一实施例中,所述任务标签与所述初始第一多任务学习模型的目标网络主体与目标第一分类器相对应,所述任务标签与所述网络主体、所述目标第一分类器间的关系可通过映射表表示,通过查询该映射表,能够确定与所述任务标签对应的所述初始第一多任务学习模型的目标网络主体与目标第一分类器。
在本申请的至少一实施例中,基于所述目标网络主体对所述训练样本进行训练,得到对应所述任务标签的目标第一多任务学习模型。其中,所述基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型包括:利用所述训练样本自底向上对所述网络交互层及所述目标网络主体进行训练得到第一网络交互层参数及第一网络主体参数;利用反向传播算法更新所述第一网络交互层参数得到第二网络交互参数,及更新所述第一网络主体参数得到第二网络主体参数;基于所述第二网络交互参数及所述第二网络主体参数得到对应所述任务标签的目标第一多任务学习模型。其中,模型的相关参数存储于区块链中。
优选地,所述利用所述训练样本自底向上对所述网络交互层及所述目标网络主体进行训练得到第一网络交互层参数及第一网络主体参数包括:调用对应所述目标网络主体的第一嵌入层对所述训练样本进行向量表征处理,得到每个训练样本的语义表征向量;调用所述网络交互层计算所述语义表征向量的注意力权值;根据所述注意力权值调用第一预设编码器对所述语义表征向量进行语义识别处理,得到语义特征向量,所述第一预设编码器包括2层transformer编码器或2层BiLstm编码器;调用所述目标第一分类器对所述语义特征向量进行训练得到第一网络交互层参数及第一网络主体参数。
示例性地,当单一任务为心态积极程度评分时,对于网络主体1,所述单一任务训练样本可以为128个心态积极程度评分数据;当单一任务为简历识别时,对于网络主体2,所述单一任务训练样本可以为128个简历识别数据。两个单一任务调用第一多任务学习模型进行交替训练。例如,当所述单一任务训练样本为心态积极程度评分数据时,本次只迭代更新网络主体1与所述网络交互层的参数,网络主体2的参数保持不变。当所述单一任务训练样本为简历识别数据时,本次只迭代更新网络主体2与所述网络交互层的参数,网络主体1的参数保持不变。
S14、确定初始第二多任务学习模型中与每个任务训练样本的任务标签对应的目标分类器,基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型。
在本申请的至少一实施例中,当检测结果为所述训练样本为多任务训练样本时,所述方法还包括:获取所述训练样本的任务标签;调用初始第二多任务学习模型,所述初始第二多任务学习模型包括输入层、第二嵌入层、第二预设编码器及若干第二分类器;根据所述任务标签确定目标分类器;基于所述目标分类器对对应的训练样本进行训练,得到对应所述任务标签的目标第二多任务学习模型。其中,所述第二嵌入层可用于对所述训练样本进行向量表征处理,得到每个训练样本的语义表征向量;所述第二预设编码器可用于对所述语义表征向量进行语义识别处理,得到对应不同第二分类器的语义特征向量;所述第二分类器可用于对所述语义特征向量进行分类处理,得到分类预测结果。所述第二预设编码器可以为2层transformer编码器。
在本申请的至少一实施例中,所述基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型包括:利用所述训练样本自底向上对所述第二分类器进行训练得到第第二分类器参数;利用反向传播算法更新所述第二分类器参数得到第三分类器参数;基于所述第三分类器参数得到对应所述任务标签的目标第二多任务学习模型。
在本申请的至少一实施例中,在选定了多任务学习模型后,可以根据人工神经网络模型的训练算法对所述训练样本进行处理,并不断更新迭代相关模型参数,最终在迭代次数达到一定数量,或者相关模型参数呈收敛状态时,可以停止多任务学习模型的训练,进而得到训练好的多任务学习模型,也即得到优化好的多任务学习模型的相关模型参数。其中,所述相关模型参数包括共享参数与任务参数,所述共享参数可以为多个任务共同享有的参数,所述任务参数可以为单个任务独有的参数。
优选地,在所述得到目标第一多任务学习模型或者所述目标第二多任务学习模型之前,所述方法还包括:获取测试样本;将所述测试样本输入至更新完参数的第一多任务学习模型或者第二多任务学习模型,得到分类测试结果;根据所述分类测试结果计算损失值;检测所述损失值是否处于预设损失范围;当检测结果为所述损失值处于预设损失范围时,将训练得到的模型作为目标第一多任务学习模型或者目标第二多任务学习模型。其中,可以通过调用相关损失函数的方式计算分类测试结果的损失值,所述预设损失范围为预先设置的。
S15、基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果。
在本申请的至少一实施例中,所述基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果包括:检测所述待分类任务是否为单一分类任务;当检测结果为所述待分类任务为单一分类任务时,调用所述目标第一多任务学习模型对所述待分类任务进行分类并输出分类结果;当检测结果为所述待分类任务时,调用所述目标第二多任务学习模型对所述待分类任务进行分类并输出分类结果。
在本申请的至少一实施例中,所述待分类任务可以包括心态积极程度评分任务、简历识别任务以及面试者问答匹配任务。所述待分类任务可以为单一分类任务或多分类任务。例如,对于多分类任务来说,所述待分类任务包括随机排序的心态积极程度评分任务与面试者问答匹配任务。对于单一分类任务来说,所述待分类任务包括单一的心态积极程度评分任务或单一的简历识别任务。
在本申请的至少一实施例中,所述调用所述目标第一多任务学习模型进行分类并输出分类结果包括:输入所述待分类任务;调用对应所述目标网络主体的第一嵌入层对所述待分类任务进行向量表征处理,得到每个待分类任务的语义表征向量;调用所述网络交互层计算所述语义表征向量的注意力权值;根据所述注意力权值调用第一预设编码器对所述语义表征向量进行语义识别处理,得到语义特征向量,所述第一预设编码器包括2层transformer编码器或2层BiLstm编码器;调用所述目标第一分类器对所述语义特征向量进行分类处理,得到分类结果。
在本申请的至少一实施例中,同一批次包含的单一分类任务的类别可能为1个,也可能为多个。对于包含多个类别的单一分类任务,可以通过交替调用所述目标第一多任务学习模型的方式进行任务处理。示例性地,多个类别的单一分类任务包括单一的心态积极程度评分任务或单一的简历识别任务,所述单一的心态积极程度评分任务与网络主体1对应,所述单一的简历识别任务与网络主体2对应。对于单一的心态积极程度评分任务,可以调用所述目标第一多任务学习模型中的网络主体1、网络交互层及分类器1处理该数据,得到面试者的心态积极程度分值,面试者的心态积极程度从低到高的分值范围可以为[1,2,3]。对于单一的简历识别任务,可以调用所述目标第一多任务学习模型中的网络主体2、网络交互层及分类器2处理该数据,得到简历文本的序列标注,所述简历文本的序列标注可以包括公司名、学校名及专业等。
在本申请的至少一实施例中,所述调用所述目标第二多任务学习模型对所述待分类任务进行分类并输出分类结果包括:调用所述输入层接收所述训练样本;调用第二嵌入层对所述训练样本进行向量表征处理,得到每个训练样本的语义表征向量;调用第二预设编码器对所述语义表征向量进行语义识别处理,得到对应不同第二分类器的多个语义特征向量;调用所述第二分类器对所述语义特征向量进行分类处理,得到分类预测结果。
在本申请的至少一实施例中,对于多分类任务来说,所述待分类任务可以包括随机排序的心态积极程度评分任务与面试者问答匹配任务。所述心态积极程度评分任务与分类器1对应,所述面试者问答匹配任务与分类器2对应。将所述多分类任务输入至所述目标第二多任务学习模组,并通过相应的分类器进行任务处理。示例性地,通过分类器1能够得到面试者的心态积极程度分值,面试者的心态积极程度从低到高的分值范围可以为[1,2,3]。通过分类器2能够得到面试者问答匹配数据,面试者问答匹配数据的分类序号范围为[1,10]。
本申请提供的多任务处理方法,通过对不同类型的待分类任务,设置相应的多任务学习模型,能够提高模型处理速率,进而提高待分类任务的速率;此外,本申请能够针对子任务语料不多的情况,采用多任务学习共享网络的方式,提高各个子任务的模型处理效果及处理效率。
以上是对本申请实施例所提供的方法进行的详细描述。根据不同的需求,所示流程图中方块的执行顺序可以改变,某些方块可以省略。下面对本申请实施例所提供的计算机设备1进行描述。
图2是本申请一实施方式的计算机设备的结构示意图,如图2所示,计算机设备1包括存储器10,存储器10中存储有所述多任务分类装置100。所述计算机设备1可以是计算机、平板电脑、个人数字助理等具有数据处理、分析、程序执行及显示等功能的电子设备。所述多任务分类装置100可以获取训练样本及所述训练样本的任务标签;检测所述训练样本是否为单一任务训练样本;当检测结果为所述训练样本为单一任务训练样本时,确定初始第一多任务学习模型中与所述任务标签对应的目标网络主体,基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型;当检测结果为所述训练样本为多任务训练样本时,确定初始第二多任务学习模型中与每个任务训练样本的任务标签对应的目标分类器,基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型;基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果。通过本申请,能够针对子任务语料不多的情况,提高各个子任务的模型处理效果及处理效率。
本实施方式中,计算机设备1还可以包括显示屏20及处理器30。存储器10、显示屏20可以分别与处理器30电连接。
所述的存储器10可以是不同类型存储设备,用于存储各类数据。例如,可以是计算机设备1的存储器、内存,还可以是可外接于该计算机设备1的存储卡,如闪存、SM卡(Smart Media Card,智能媒体卡)、SD卡(Secure Digital Card,安全数字卡)等。存储器10可以包括非易失性存储器和/或易失性存储器,非易失性存储器例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(Secure Digital, SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。存储器10用于存储各类数据,例如,所述计算机设备1中安装的各类应用程序(Applications)、应用上述多任务分类方法而设置、获取的数据等信息。
显示屏20安装于计算机设备1,用于显示信息。
处理器30用于执行所述多任务分类方法以及所述计算机设备1内安装的各类软件,例如操作系统及应用显示软件等。处理器30包含但不限于处理器(Central Processing Unit,CPU)、微控制单元(Micro Controller Unit,MCU)等用于解释计算机指令以及处理计算机软件中的数据的装置。
所述的多任务分类装置100可以包括一个或多个的模块,所述一个或多个模块被存储在计算机设备1的存储器10中并被配置成由一个或多个处理器(本实施方式为一个处理器30)执行,以完成本申请实施例。参阅图3所示,所述多任务分类装置100可以包括样本获取模块101、样本检测模块102、第一模型获取模块103、第二模型获取模块104以及分类处理模块105。本申请实施例所称的模块可以是完成一特定功能的程序段,比程序更适合于描述软件在处理器30中的执行过程。
可以理解的是,对应上述多任务分类方法中的各实施方式,多任务分类装置100可以包括图3中所示的各功能模块中的一部分或全部,各模块的功能将在以下具体介绍。需要说明的是,以上多任务分类方法的各实施方式中相同的名词相关名词及其具体的解释说明也可以适用于以下对各模块的功能介绍。为节省篇幅及避免重复起见,在此就不再赘述。
样本获取模块101可以用于获取训练样本。
样本检测模块102可以用于检测所述训练样本是否为单一任务训练样本。
第一模型获取模块103可以用于当检测结果为所述训练样本为单一任务训练样本时,确定初始第一多任务学习模型中与所述任务标签对应的目标网络主体,基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型。
第二模型获取模块104可以用于当检测结果为所述训练样本为多任务训练样本时,确定初始第二多任务学习模型中与每个任务训练样本的任务标签对应的目标分类器,基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型。
分类处理模块105可以基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质可包括非易失性和/或易失性存储器,其上存储有计算机程序,所述计算机程序被处理器30执行时实现上述任一实施方式中的多任务分类方法的步骤。
所述多任务分类装置100/计算机设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施方式方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器30执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读存储介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)等。
所称处理器30可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器 (Digital Signal Processor,DSP)、专用集成电路 (Application Specific Integrated Circuit,ASIC)、现场可编程门阵列 (Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器30是所述多任务分类装置100/计算机设备1的控制中心,利用各种接口和线路连接整个多任务分类装置100/计算机设备1的各个部分。
所述存储器10用于存储所述计算机程序和/或模块,所述处理器30通过运行或执行存储在所述存储器10内的计算机程序和/或模块,以及调用存储在存储器10内的数据,实现所述多任务分类装置100/计算机设备1的各种功能。所述存储器10可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机设备1的使用所创建的数据等。
在本申请所提供的几个具体实施方式中,应该理解到,所揭露的计算机设备和方法,可以通过其它的方式实现。例如,以上所描述的系统实施方式仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
对于本领域技术人员而言,显然本申请实施例不限于上述示范性实施例的细节,而且在不背离本申请实施例的精神或基本特征的情况下,能够以其他的具体形式实现本申请实施例。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请实施例的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本申请实施例内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。系统、装置或计算机设备权利要求中陈述的多个单元、模块或装置也可以由同一个单元、模块或装置通过软件或者硬件来实现。
以上实施方式仅用以说明本申请实施例的技术方案而非限制,尽管参照以上较佳实施方式对本申请实施例进行了详细说明,本领域的普通技术人员应当理解,可以对本申请实施例的技术方案进行修改或等同替换都不应脱离本申请实施例的技术方案的精神和范围。

Claims (20)

  1. 一种多任务分类方法,所述多任务分类模型训练方法包括:
    获取训练样本及所述训练样本的任务标签;
    检测所述训练样本是否为单一任务训练样本;
    当检测结果为所述训练样本为单一任务训练样本时,确定初始第一多任务学习模型中与所述任务标签对应的目标网络主体,基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型;
    当检测结果为所述训练样本为多任务训练样本时,确定初始第二多任务学习模型中与每个任务训练样本的任务标签对应的目标分类器,基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型;
    基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果。
  2. 根据权利要求1所述的多任务分类方法,其中,所述初始第一多任务学习模型包括网络交互层、多个网络主体及与每个网络主体对应的第一分类器,所述基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型包括:
    利用所述训练样本自底向上对所述网络交互层及所述目标网络主体进行训练得到第一网络交互层参数及第一网络主体参数;
    利用反向传播算法更新所述第一网络交互层参数得到第二网络交互参数,及更新所述第一网络主体参数得到第二网络主体参数;
    基于所述第二网络交互参数及所述第二网络主体参数得到对应所述任务标签的目标第一多任务学习模型。
  3. 根据权利要求1所述的多任务分类方法,其中,所述初始第二多任务学习模型包括第二分类器,所述基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型包括:
    利用所述训练样本自底向上对所述第二分类器进行训练得到第第二分类器参数;
    利用反向传播算法更新所述第二分类器参数得到第三分类器参数;
    基于所述第三分类器参数得到对应所述任务标签的目标第二多任务学习模型。
  4. 根据权利要求2所述的多任务分类方法,其中,所述利用所述训练样本自底向上对所述网络交互层及所述目标网络主体进行训练得到第一网络交互层参数及第一网络主体参数包括:
    调用对应所述目标网络主体的第一嵌入层对所述训练样本进行向量表征处理,得到每个训练样本的语义表征向量;
    调用所述网络交互层计算所述语义表征向量的注意力权值;
    根据所述注意力权值调用第一预设编码器对所述语义表征向量进行语义识别处理,得到语义特征向量,所述第一预设编码器包括2层transformer编码器或2层BiLstm编码器;
    调用所述目标第一分类器对所述语义特征向量进行训练得到第一网络交互层参数及第一网络主体参数。
  5. 根据权利要求1所述的多任务分类方法,其中,在所述得到目标第一多任务学习模型或者所述目标第二多任务学习模型之前,所述方法还包括:
    获取测试样本;
    将所述测试样本输入至更新完参数的第一多任务学习模型或者第二多任务学习模型,得到分类测试结果;
    根据所述分类测试结果计算损失值;
    检测所述损失值是否处于预设损失范围;
    当检测结果为所述损失值处于预设损失范围时,将训练得到的模型作为目标第一多任务学习模型或者目标第二多任务学习模型。
  6. 根据权利要求1所述的多任务分类方法,其中,所述检测所述训练样本是否为单一任务训练样本包括:
    获取所述训练样本的任务标签;
    检测所述任务标签是否一致;
    当检测结果为所述任务标签不一致时,确定所述训练样本为多任务训练样本;
    当检测结果为所述任务标签一致时,确定所述训练样本为单一任务训练样本。
  7. 根据权利要求1所述的多任务分类方法,其中,所述基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果包括:
    检测所述待分类任务是否为单一分类任务;
    当检测结果为所述待分类任务为单一分类任务时,调用所述目标第一多任务学习模型对所述待分类任务进行分类并输出分类结果;
    当检测结果为所述待分类任务为多分类任务时,调用所述目标第二多任务学习模型对所述待分类任务进行分类并输出分类结果。
  8. 一种多任务分类装置,所述多任务分类模型训练装置包括:
    样本获取模块,用于获取训练样本;
    样本检测模块,用于检测所述训练样本是否为单一任务训练样本;
    第一模型获取模块,用于当检测结果为所述训练样本为单一任务训练样本时,确定初始第一多任务学习模型中与所述任务标签对应的目标网络主体,基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型;
    第二模型获取模块,用于当检测结果为所述训练样本为多任务训练样本时,确定初始第二多任务学习模型中与每个任务训练样本的任务标签对应的目标分类器,基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型;
    分类处理模块,基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果。
  9. 一种计算机设备,所述计算机设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现以下步骤:
    获取训练样本及所述训练样本的任务标签;
    检测所述训练样本是否为单一任务训练样本;
    当检测结果为所述训练样本为单一任务训练样本时,确定初始第一多任务学习模型中与所述任务标签对应的目标网络主体,基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型;
    当检测结果为所述训练样本为多任务训练样本时,确定初始第二多任务学习模型中与每个任务训练样本的任务标签对应的目标分类器,基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型;
    基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果。
  10. 根据权利要求9所述的计算机设备,其中,所述初始第一多任务学习模型包括网络交互层、多个网络主体及与每个网络主体对应的第一分类器,所述基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型包括:
    利用所述训练样本自底向上对所述网络交互层及所述目标网络主体进行训练得到第一网络交互层参数及第一网络主体参数;
    利用反向传播算法更新所述第一网络交互层参数得到第二网络交互参数,及更新所述第一网络主体参数得到第二网络主体参数;
    基于所述第二网络交互参数及所述第二网络主体参数得到对应所述任务标签的目标第一多任务学习模型。
  11. 根据权利要求9所述的计算机设备,其中,所述初始第二多任务学习模型包括第二分类器,所述基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型包括:
    利用所述训练样本自底向上对所述第二分类器进行训练得到第第二分类器参数;
    利用反向传播算法更新所述第二分类器参数得到第三分类器参数;
    基于所述第三分类器参数得到对应所述任务标签的目标第二多任务学习模型。
  12. 根据权利要求10所述的计算机设备,其中,所述利用所述训练样本自底向上对所述网络交互层及所述目标网络主体进行训练得到第一网络交互层参数及第一网络主体参数包括:
    调用对应所述目标网络主体的第一嵌入层对所述训练样本进行向量表征处理,得到每个训练样本的语义表征向量;
    调用所述网络交互层计算所述语义表征向量的注意力权值;
    根据所述注意力权值调用第一预设编码器对所述语义表征向量进行语义识别处理,得到语义特征向量,所述第一预设编码器包括2层transformer编码器或2层BiLstm编码器;
    调用所述目标第一分类器对所述语义特征向量进行训练得到第一网络交互层参数及第一网络主体参数。
  13. 根据权利要求9所述的计算机设备,其中,在所述得到目标第一多任务学习模型或者所述目标第二多任务学习模型之前,还实现以下步骤:
    获取测试样本;
    将所述测试样本输入至更新完参数的第一多任务学习模型或者第二多任务学习模型,得到分类测试结果;
    根据所述分类测试结果计算损失值;
    检测所述损失值是否处于预设损失范围;
    当检测结果为所述损失值处于预设损失范围时,将训练得到的模型作为目标第一多任务学习模型或者目标第二多任务学习模型。
  14. 根据权利要求9所述的计算机设备,其中,所述检测所述训练样本是否为单一任务训练样本包括:
    获取所述训练样本的任务标签;
    检测所述任务标签是否一致;
    当检测结果为所述任务标签不一致时,确定所述训练样本为多任务训练样本;
    当检测结果为所述任务标签一致时,确定所述训练样本为单一任务训练样本。
  15. 根据权利要求9所述的计算机设备,其中,所述基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果包括:
    检测所述待分类任务是否为单一分类任务;
    当检测结果为所述待分类任务为单一分类任务时,调用所述目标第一多任务学习模型对所述待分类任务进行分类并输出分类结果;
    当检测结果为所述待分类任务为多分类任务时,调用所述目标第二多任务学习模型对所述待分类任务进行分类并输出分类结果。
  16. 一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
    获取训练样本及所述训练样本的任务标签;
    检测所述训练样本是否为单一任务训练样本;
    当检测结果为所述训练样本为单一任务训练样本时,确定初始第一多任务学习模型中与所述任务标签对应的目标网络主体,基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型;
    当检测结果为所述训练样本为多任务训练样本时,确定初始第二多任务学习模型中与每个任务训练样本的任务标签对应的目标分类器,基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型;
    基于所述目标第一多任务学习模型或者所述目标第二多任务学习模型对待分类任务进行分类并输出分类结果。
  17. 根据权利要求16所述的计算机可读存储介质,其中,所述初始第一多任务学习模型包括网络交互层、多个网络主体及与每个网络主体对应的第一分类器,所述基于所述目标网络主体对所述训练样本进行训练,得到目标第一多任务学习模型包括:
    利用所述训练样本自底向上对所述网络交互层及所述目标网络主体进行训练得到第一网络交互层参数及第一网络主体参数;
    利用反向传播算法更新所述第一网络交互层参数得到第二网络交互参数,及更新所述第一网络主体参数得到第二网络主体参数;
    基于所述第二网络交互参数及所述第二网络主体参数得到对应所述任务标签的目标第一多任务学习模型。
  18. 根据权利要求16所述的计算机可读存储介质,其中,所述初始第二多任务学习模型包括第二分类器,所述基于所述目标分类器对对应的训练样本进行训练,得到目标第二多任务学习模型包括:
    利用所述训练样本自底向上对所述第二分类器进行训练得到第第二分类器参数;
    利用反向传播算法更新所述第二分类器参数得到第三分类器参数;
    基于所述第三分类器参数得到对应所述任务标签的目标第二多任务学习模型。
  19. 根据权利要求17所述的计算机可读存储介质,其中,所述利用所述训练样本自底向上对所述网络交互层及所述目标网络主体进行训练得到第一网络交互层参数及第一网络主体参数包括:
    调用对应所述目标网络主体的第一嵌入层对所述训练样本进行向量表征处理,得到每个训练样本的语义表征向量;
    调用所述网络交互层计算所述语义表征向量的注意力权值;
    根据所述注意力权值调用第一预设编码器对所述语义表征向量进行语义识别处理,得到语义特征向量,所述第一预设编码器包括2层transformer编码器或2层BiLstm编码器;
    调用所述目标第一分类器对所述语义特征向量进行训练得到第一网络交互层参数及第一网络主体参数。
  20. 根据权利要求16所述的计算机可读存储介质,其中,在所述得到目标第一多任务学习模型或者所述目标第二多任务学习模型之前,还实现以下步骤:
    获取测试样本;
    将所述测试样本输入至更新完参数的第一多任务学习模型或者第二多任务学习模型,得到分类测试结果;
    根据所述分类测试结果计算损失值;
    检测所述损失值是否处于预设损失范围;
    当检测结果为所述损失值处于预设损失范围时,将训练得到的模型作为目标第一多任务学习模型或者目标第二多任务学习模型。
PCT/CN2020/118888 2020-07-22 2020-09-29 多任务分类方法、装置、计算机设备及存储介质 WO2021151296A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010713422.9 2020-07-22
CN202010713422.9A CN111881968B (zh) 2020-07-22 2020-07-22 多任务分类方法、装置及相关设备

Publications (1)

Publication Number Publication Date
WO2021151296A1 true WO2021151296A1 (zh) 2021-08-05

Family

ID=73155802

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/118888 WO2021151296A1 (zh) 2020-07-22 2020-09-29 多任务分类方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN111881968B (zh)
WO (1) WO2021151296A1 (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113627197A (zh) * 2021-08-11 2021-11-09 未鲲(上海)科技服务有限公司 文本的意图识别方法、装置、设备及存储介质
CN113723513A (zh) * 2021-08-31 2021-11-30 平安国际智慧城市科技股份有限公司 多标签图像分类方法、装置及相关设备
CN113743340A (zh) * 2021-09-09 2021-12-03 智道网联科技(北京)有限公司 用于自动驾驶的计算机视觉网络模型优化方法及相关装置
CN114519381A (zh) * 2021-12-31 2022-05-20 上海仙途智能科技有限公司 基于多任务学习网络的感知方法及装置、存储介质、终端
CN114637848A (zh) * 2022-03-15 2022-06-17 美的集团(上海)有限公司 语义分类方法及装置
CN114782791A (zh) * 2022-04-14 2022-07-22 华南理工大学 基于transformer模型和类别关联的场景图生成方法
CN114969754A (zh) * 2022-05-25 2022-08-30 安徽工业大学 一种基于多任务学习解决afl预测模型数据不平衡的方法及系统
CN115118653A (zh) * 2022-08-26 2022-09-27 南京可信区块链与算法经济研究院有限公司 一种基于多任务学习的实时业务流量分类方法及系统
CN115396212A (zh) * 2022-08-26 2022-11-25 国科华盾(北京)科技有限公司 检测模型的训练方法、装置、计算机设备和存储介质
CN115545088A (zh) * 2022-02-22 2022-12-30 北京百度网讯科技有限公司 模型构建方法、分类方法、装置和电子设备
CN116304560A (zh) * 2023-01-17 2023-06-23 北京信息科技大学 基于多尺度增强对比学习的轨迹表征模型训练方法、表征方法及装置
CN116362607A (zh) * 2023-03-30 2023-06-30 中国人民解放军军事科学院系统工程研究院 一种物资储备效能评估方法及装置
CN116662814A (zh) * 2023-07-28 2023-08-29 腾讯科技(深圳)有限公司 对象意向预测方法、装置、计算机设备及存储介质
CN116795504A (zh) * 2023-01-10 2023-09-22 联通沃音乐文化有限公司 基于深度学习算法的etl调度方法、装置、设备及介质
CN116895047A (zh) * 2023-07-24 2023-10-17 北京全景优图科技有限公司 一种快速的人流量监控方法及系统
CN117094362A (zh) * 2023-10-19 2023-11-21 腾讯科技(深圳)有限公司 一种任务处理方法及相关装置
CN117763550A (zh) * 2024-02-22 2024-03-26 鹏城实验室 多任务恶意软件检测方法和装置、电子设备及存储介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112559007B (zh) * 2020-12-14 2022-09-23 北京百度网讯科技有限公司 多任务模型的参数更新方法、装置及电子设备
CN112861926B (zh) * 2021-01-18 2023-10-31 平安科技(深圳)有限公司 耦合的多任务特征提取方法、装置、电子设备及存储介质
CN113704388A (zh) * 2021-03-05 2021-11-26 腾讯科技(深圳)有限公司 多任务预训练模型的训练方法、装置、电子设备和介质
CN112801221B (zh) * 2021-03-24 2023-12-22 平安科技(深圳)有限公司 一种数据分类方法、装置、设备及存储介质
CN113806501B (zh) * 2021-04-06 2023-11-03 京东科技控股股份有限公司 意图识别模型的训练方法、意图识别方法和设备
CN113192530B (zh) * 2021-04-26 2023-08-22 深圳追一科技有限公司 模型训练、嘴部动作参数获取方法、装置、设备及介质
CN113436682B (zh) * 2021-06-30 2024-05-24 平安科技(深圳)有限公司 风险人群的预测方法、装置、终端设备及存储介质
CN113312445B (zh) * 2021-07-29 2022-02-11 阿里云计算有限公司 数据处理方法、模型构建方法、分类方法及计算设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105894050A (zh) * 2016-06-01 2016-08-24 北京联合大学 一种基于多任务学习的人脸图像种族和性别识别方法
US20190244108A1 (en) * 2018-02-08 2019-08-08 Cognizant Technology Solutions U.S. Corporation System and Method For Pseudo-Task Augmentation in Deep Multitask Learning
CN110263159A (zh) * 2019-05-28 2019-09-20 电子科技大学 一种基于单分类器多任务网络的隐式句间关系分析方法
CN110347839A (zh) * 2019-07-18 2019-10-18 湖南数定智能科技有限公司 一种基于生成式多任务学习模型的文本分类方法
CN110728298A (zh) * 2019-09-05 2020-01-24 北京三快在线科技有限公司 多任务分类模型训练方法、多任务分类方法及装置
CN111143558A (zh) * 2019-12-12 2020-05-12 支付宝(杭州)信息技术有限公司 基于单个分层多任务模型的消息识别方法和系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665065B (zh) * 2018-04-25 2020-08-04 清华大学 任务数据的处理方法、装置、设备和存储介质
CN110209817B (zh) * 2019-05-31 2023-06-09 安徽省泰岳祥升软件有限公司 文本处理模型的训练方法、装置和文本处理方法
CN110414624A (zh) * 2019-08-06 2019-11-05 广东工业大学 基于多任务学习的分类模型构建方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105894050A (zh) * 2016-06-01 2016-08-24 北京联合大学 一种基于多任务学习的人脸图像种族和性别识别方法
US20190244108A1 (en) * 2018-02-08 2019-08-08 Cognizant Technology Solutions U.S. Corporation System and Method For Pseudo-Task Augmentation in Deep Multitask Learning
CN110263159A (zh) * 2019-05-28 2019-09-20 电子科技大学 一种基于单分类器多任务网络的隐式句间关系分析方法
CN110347839A (zh) * 2019-07-18 2019-10-18 湖南数定智能科技有限公司 一种基于生成式多任务学习模型的文本分类方法
CN110728298A (zh) * 2019-09-05 2020-01-24 北京三快在线科技有限公司 多任务分类模型训练方法、多任务分类方法及装置
CN111143558A (zh) * 2019-12-12 2020-05-12 支付宝(杭州)信息技术有限公司 基于单个分层多任务模型的消息识别方法和系统

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113627197A (zh) * 2021-08-11 2021-11-09 未鲲(上海)科技服务有限公司 文本的意图识别方法、装置、设备及存储介质
CN113627197B (zh) * 2021-08-11 2024-04-30 中科软科技股份有限公司 文本的意图识别方法、装置、设备及存储介质
CN113723513A (zh) * 2021-08-31 2021-11-30 平安国际智慧城市科技股份有限公司 多标签图像分类方法、装置及相关设备
CN113723513B (zh) * 2021-08-31 2024-05-03 平安国际智慧城市科技股份有限公司 多标签图像分类方法、装置及相关设备
CN113743340A (zh) * 2021-09-09 2021-12-03 智道网联科技(北京)有限公司 用于自动驾驶的计算机视觉网络模型优化方法及相关装置
CN113743340B (zh) * 2021-09-09 2023-09-26 智道网联科技(北京)有限公司 用于自动驾驶的计算机视觉网络模型优化方法及相关装置
CN114519381A (zh) * 2021-12-31 2022-05-20 上海仙途智能科技有限公司 基于多任务学习网络的感知方法及装置、存储介质、终端
CN115545088A (zh) * 2022-02-22 2022-12-30 北京百度网讯科技有限公司 模型构建方法、分类方法、装置和电子设备
CN115545088B (zh) * 2022-02-22 2023-10-24 北京百度网讯科技有限公司 模型构建方法、分类方法、装置和电子设备
CN114637848A (zh) * 2022-03-15 2022-06-17 美的集团(上海)有限公司 语义分类方法及装置
CN114782791B (zh) * 2022-04-14 2024-03-22 华南理工大学 基于transformer模型和类别关联的场景图生成方法
CN114782791A (zh) * 2022-04-14 2022-07-22 华南理工大学 基于transformer模型和类别关联的场景图生成方法
CN114969754A (zh) * 2022-05-25 2022-08-30 安徽工业大学 一种基于多任务学习解决afl预测模型数据不平衡的方法及系统
CN115396212A (zh) * 2022-08-26 2022-11-25 国科华盾(北京)科技有限公司 检测模型的训练方法、装置、计算机设备和存储介质
CN115118653A (zh) * 2022-08-26 2022-09-27 南京可信区块链与算法经济研究院有限公司 一种基于多任务学习的实时业务流量分类方法及系统
CN116795504A (zh) * 2023-01-10 2023-09-22 联通沃音乐文化有限公司 基于深度学习算法的etl调度方法、装置、设备及介质
CN116304560A (zh) * 2023-01-17 2023-06-23 北京信息科技大学 基于多尺度增强对比学习的轨迹表征模型训练方法、表征方法及装置
CN116304560B (zh) * 2023-01-17 2023-11-24 北京信息科技大学 一种轨迹表征模型训练方法、表征方法及装置
CN116362607B (zh) * 2023-03-30 2023-11-03 中国人民解放军军事科学院系统工程研究院 一种物资储备效能评估方法及装置
CN116362607A (zh) * 2023-03-30 2023-06-30 中国人民解放军军事科学院系统工程研究院 一种物资储备效能评估方法及装置
CN116895047B (zh) * 2023-07-24 2024-01-30 北京全景优图科技有限公司 一种快速的人流量监控方法及系统
CN116895047A (zh) * 2023-07-24 2023-10-17 北京全景优图科技有限公司 一种快速的人流量监控方法及系统
CN116662814B (zh) * 2023-07-28 2023-10-31 腾讯科技(深圳)有限公司 对象意向预测方法、装置、计算机设备及存储介质
CN116662814A (zh) * 2023-07-28 2023-08-29 腾讯科技(深圳)有限公司 对象意向预测方法、装置、计算机设备及存储介质
CN117094362A (zh) * 2023-10-19 2023-11-21 腾讯科技(深圳)有限公司 一种任务处理方法及相关装置
CN117094362B (zh) * 2023-10-19 2024-02-09 腾讯科技(深圳)有限公司 一种任务处理方法及相关装置
CN117763550A (zh) * 2024-02-22 2024-03-26 鹏城实验室 多任务恶意软件检测方法和装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN111881968A (zh) 2020-11-03
CN111881968B (zh) 2024-04-09

Similar Documents

Publication Publication Date Title
WO2021151296A1 (zh) 多任务分类方法、装置、计算机设备及存储介质
US11568240B2 (en) Method and apparatus for classifying class, to which sentence belongs, using deep neural network
CN110188202B (zh) 语义关系识别模型的训练方法、装置及终端
CN109902271B (zh) 基于迁移学习的文本数据标注方法、装置、终端及介质
CN110874716A (zh) 面试测评方法、装置、电子设备及存储介质
US20230080674A1 (en) Systems and Methods for Automated Generation of Passage-Based Items for Use in Testing or Evaluation
CN111242083B (zh) 基于人工智能的文本处理方法、装置、设备、介质
US11822568B2 (en) Data processing method, electronic equipment and storage medium
CN109599187A (zh) 一种在线问诊的分诊方法、服务器、终端、设备及介质
CN111666416A (zh) 用于生成语义匹配模型的方法和装置
WO2020244151A1 (zh) 图像处理方法、装置、终端及存储介质
CN113689436B (zh) 图像语义分割方法、装置、设备及存储介质
Thomas et al. Automatic prediction of presentation style and student engagement from videos
Schiller et al. Relevance-based data masking: a model-agnostic transfer learning approach for facial expression recognition
CN112420125A (zh) 分子属性预测方法、装置、智能设备和终端
CN112507095A (zh) 基于弱监督学习的信息识别方法及相关设备
WO2021174814A1 (zh) 众包任务的答案验证方法、装置、计算机设备及存储介质
CN114385817A (zh) 实体关系的识别方法、设备及可读存储介质
CN112052663B (zh) 客服语句质检方法及相关设备
CN110059743B (zh) 确定预测的可靠性度量的方法、设备和存储介质
CN110705580A (zh) 没有参考标准的简答题评分
Liu et al. Evolutionary Voting‐Based Extreme Learning Machines
CN111859985B (zh) Ai客服模型测试方法、装置、电子设备及存储介质
CN112529743A (zh) 合同要素抽取方法、装置、电子设备及介质
US20180160963A1 (en) Sensors and Analytics for Reading Comprehension

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20916434

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20916434

Country of ref document: EP

Kind code of ref document: A1