WO2020224097A1 - 智能语义文档推荐方法、装置及计算机可读存储介质 - Google Patents

智能语义文档推荐方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
WO2020224097A1
WO2020224097A1 PCT/CN2019/102192 CN2019102192W WO2020224097A1 WO 2020224097 A1 WO2020224097 A1 WO 2020224097A1 CN 2019102192 W CN2019102192 W CN 2019102192W WO 2020224097 A1 WO2020224097 A1 WO 2020224097A1
Authority
WO
WIPO (PCT)
Prior art keywords
document
user
information
query information
training
Prior art date
Application number
PCT/CN2019/102192
Other languages
English (en)
French (fr)
Inventor
张师琲
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2020224097A1 publication Critical patent/WO2020224097A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3325Reformulation based on results of preceding query
    • G06F16/3326Reformulation based on results of preceding query using relevance feedback from the user, e.g. relevance feedback on documents, documents sets, document terms or passages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Definitions

  • This application relates to the technical field of speech semantics, and in particular to a method, device and computer-readable storage medium for intelligent semantic document recommendation based on the collaboration of knowledge content and user behavior.
  • the traditional literal document search method such as cosine similarity, Jaccard Distance, VSM, etc.
  • the data searched and recommended to the user may not match the data that the user really needs, thus wasting the user's energy and time, and bringing a bad user experience to the user.
  • This application provides an intelligent semantic document recommendation method, device, and computer-readable storage medium, the main purpose of which is to provide a personalized document information search and recommendation solution.
  • an intelligent semantic document recommendation method includes:
  • the query information input by the user is received, and the intelligent semantic document recommendation model is used to perform document retrieval from the document database according to the query information, and the document retrieval results are sorted and output to the user.
  • the present application also provides an intelligent semantic document recommendation device.
  • the device includes a memory and a processor.
  • the memory stores an intelligent semantic document recommendation program that can run on the processor.
  • the intelligent semantic document recommendation program is executed by the processor, the following steps are implemented:
  • the query information input by the user is received, and the intelligent semantic document recommendation model is used to perform document retrieval from the document database according to the query information, and the document retrieval results are sorted and output to the user.
  • the present application also provides a computer-readable storage medium with an intelligent semantic document recommendation program stored on the computer-readable storage medium, and the intelligent semantic document recommendation program can be executed by one or more processors. Execute to implement the steps of the intelligent semantic document recommendation method as described above.
  • the intelligent semantic document recommendation method, device, and computer-readable storage medium proposed in this application receive query information input by a user, and use the intelligent semantic document recommendation model to retrieve documents from the document database according to the query information, Sort the document retrieval results and output them to users, providing users with a personalized document information search and recommendation plan.
  • FIG. 1 is a schematic flowchart of a method for recommending intelligent semantic documents according to an embodiment of this application
  • FIG. 2 is a schematic diagram of the internal structure of an intelligent semantic document recommendation device provided by an embodiment of the application.
  • FIG. 3 is a schematic diagram of modules of an intelligent semantic document recommendation program in an intelligent semantic document recommendation device provided by an embodiment of the application.
  • This application provides an intelligent semantic document recommendation method.
  • FIG. 1 it is a schematic flowchart of an intelligent semantic document recommendation method provided by an embodiment of this application.
  • the method can be executed by a device, and the device can be implemented by software and/or hardware.
  • the intelligent semantic document recommendation method includes:
  • various documents are stored in the document database, and the documents can be queried by a search engine using a preset search strategy.
  • a user once entered the query information "How about Ping An Life" in a search engine, and the search engine outputs N result sets in the form of a list according to the input query information.
  • the N result sets may be searched and sorted literally.
  • search and sorting methods may prevent users from immediately finding the content they need. Therefore, after a long period of filtering, users may select one or several pieces of document information to click and view.
  • the preferred embodiment of the present application collects each historical query information entered by the user in the search engine and document information selected by the user from the output result set searched based on the historical query information.
  • the preprocessing operations described in this application include word segmentation operations and keyword extraction operations.
  • the sentence S is segmented using the full segmentation method to obtain all possible Chinese word segmentation methods, calculate the probability of each of the word segmentation methods, and select the one with the highest probability
  • the word segmentation result in the method is used as the final document word segmentation result.
  • the probability of occurrence of the nth word in a document is only related to the occurrence of n-1 words before it, and has nothing to do with all words after the nth word. Therefore, in a word sequence ⁇ W 1 , the probability of W 2 ... W m ⁇ sentence consisting of S, a case where the n-1 words appearing first, the n-th words W i appears as:
  • W m-i+1 ,...W m-1 ) means: the probability of W m appearing in the case of the occurrence of the string W m-i+1 ,...W m-1 , through On the basis of large-scale corpus training, a binary grammar model is used. Therefore, the probability model of the sentence S is:
  • This application selects the word segmentation result corresponding to the maximum value of P(S) from all the P(S) calculated above as the word segmentation result of this case:
  • keyword extraction is performed on the word segmentation result through a keyword extraction method.
  • the keyword extraction algorithm uses statistical information, word vector information, and dependency syntax information between words to calculate the correlation strength between words by constructing a dependency relationship graph, and iteratively calculates the importance score of words using the TextRank algorithm, and calculates the importance of words according to the sentence
  • the result of the dependency syntax analysis is to construct an undirected graph for all non-stop words, and calculate the weight of the edge by using the gravity value between the words and the degree of dependency correlation.
  • the keyword extraction method includes:
  • len(W i , W j ) represents the length of the dependency path between words W i and W j
  • b is the number of hyperparameters
  • tfidf (W) is a TF-IDF value of word W
  • TF represents term frequency
  • IDF represents inverse document frequency index
  • d is the Euclidean distance between the vectors of words W i and W words of J;
  • the preferred embodiment of the present application sorts all words according to the importance score, and selects a preset number of keywords from the words according to the sort, for example, selects the word with the highest importance score
  • the n words of are used as keywords to obtain the query information and the feature points of the document information selected by the user.
  • the intelligent semantic document recommendation model includes a convolutional neural network.
  • the convolutional neural network is a feed-forward neural network. Its artificial neurons can respond to a part of the surrounding units in the coverage area. Its basic structure includes two layers. One is the feature extraction layer. The input of each neuron is The local receptive fields of the previous layer are connected, and the local features are extracted. Once the local feature is extracted, the positional relationship between it and other features is also determined; the second is the feature mapping layer, each computing layer of the network is composed of multiple feature maps, and each feature map is a plane. The weights of all neurons on the plane are equal.
  • the convolutional neural network includes an input layer, a convolutional layer, a pooling layer, and an output layer.
  • the preferred embodiment of the present application converts the text of the training set and the label set into a vector representation, inputs the vector into the input layer of the convolutional neural network model, and presets it in the convolutional layer
  • a set of filters perform convolution operations on the vector to extract feature vectors.
  • the filters can be ⁇ filter 0 ,filter 1 ⁇ , which are used to generate a set of features on similar channels and different channels;
  • the pooling layer performs a pooling operation on the feature vector and inputs it to the fully connected layer.
  • the text in the training set is preset as Z and the text in the label set is T
  • each keyword Key Z in the keyword sequence Key Z in the text Z is converted Represented as a vector Key Key Z T calculated by the keyword in the sequence of the text semantic matching vector T That is, some keywords in Key T are used to represent Key Z , based on semantic matching vectors Correct Decompose, get the similarity vector between Key Z and Key T Dissimilarity vector Perform the above operations on each word in the text Z to obtain the similarity matrix of K Z Dissimilarity matrix will with The feature vectors of text Z and text T are obtained by merging.
  • a classification label is input to the feature vector through the Softmax activation function to calculate the output text category probability, and the text category probability is input into the loss function to calculate the loss function value, When the loss function value is less than the threshold, the training is exited.
  • the threshold is preset to 0.01.
  • J is the loss function value
  • y i is the true label of the category i of the output text
  • k is the number of the output text categories
  • N is the total number of samples of the output text.
  • the preferred embodiment of the present application classifies the document information selected by the user from the retrieval result set output based on the historical query information according to the field, calculates the number of clicks and the contribution of the selected document information, and calculates it using a linear cumulative weighting method The user's degree of interest in the selected document information, and sorting the document retrieval results according to the degree of interest.
  • the linear cumulative weighting method includes:
  • the preset user u inputs n query information belonging to the domain t:
  • a(u,q,t) represents the user u's interest in the current document q
  • q ⁇ t a h (u,t) represents the user u's cumulative interest in the field t
  • v 1 (u,q,t ) Represents the normalized number of votes obtained by the search results provided by the user u under the query information q
  • q ⁇ t ⁇ is a hyperparameter.
  • the preferred embodiment of this case further trains the intelligent semantic document recommendation model based on the query information currently input by the user and the document information selected by the user from the document retrieval results returned by the intelligent semantic document recommendation model according to the query information,
  • the intelligent semantic document recommendation model is continuously optimized and updated to provide users with better document recommendation results.
  • the invention also provides an intelligent semantic document recommendation device.
  • FIG. 2 it is a schematic diagram of the internal structure of an intelligent semantic document recommendation device provided by an embodiment of this application. (Corresponding modification)
  • the smart semantic document recommendation device 1 may be a PC (Personal Computer, personal computer), or a terminal device such as a smart phone, a tablet computer, or a portable computer, or a server.
  • the smart semantic document recommendation device 1 at least includes a memory 11, a processor 12, a communication bus 13, and a network interface 14.
  • the memory 11 includes at least one type of readable storage medium, and the readable storage medium includes flash memory, hard disk, multimedia card, card-type memory (for example, SD or DX memory, etc.), magnetic memory, magnetic disk, optical disk, etc.
  • the memory 11 may be an internal storage unit of the smart semantic document recommendation device 1, for example, the hard disk of the smart semantic document recommendation device 1.
  • the memory 11 may also be an external storage device of the smart semantic document recommendation device 1, for example, a plug-in hard disk equipped on the smart semantic document recommendation device 1, a smart media card (SMC), and a secure digital (Secure Digital, SD) card, Flash Card, etc.
  • the memory 11 may also include both the internal storage unit of the intelligent semantic document recommendation apparatus 1 and an external storage device.
  • the memory 11 can be used not only to store application software and various data installed in the smart semantic document recommendation device 1, such as the code of the smart semantic document recommendation program 01, but also to temporarily store data that has been output or will be output.
  • the processor 12 may be a central processing unit (CPU), controller, microcontroller, microprocessor or other data processing chip in some embodiments, and is used to run the program code or processing stored in the memory 11 Data, such as execution of intelligent semantic document recommendation program 01, etc.
  • CPU central processing unit
  • controller microcontroller
  • microprocessor or other data processing chip in some embodiments, and is used to run the program code or processing stored in the memory 11 Data, such as execution of intelligent semantic document recommendation program 01, etc.
  • the communication bus 13 is used to realize the connection and communication between these components.
  • the network interface 14 may optionally include a standard wired interface and a wireless interface (such as a WI-FI interface), and is usually used to establish a communication connection between the device 1 and other electronic devices.
  • the device 1 may also include a user interface.
  • the user interface may include a display (Display) and an input unit such as a keyboard (Keyboard).
  • the optional user interface may also include a standard wired interface and a wireless interface.
  • the display may be an LED display, a liquid crystal display, a touch-sensitive liquid crystal display, an OLED (Organic Light-Emitting Diode, organic light emitting diode) touch device, etc.
  • the display can also be appropriately called a display screen or a display unit, which is used to display the information processed in the intelligent semantic document recommendation device 1 and to display a visualized user interface.
  • Figure 2 only shows the smart semantic document recommendation device 1 with components 11-14 and the smart semantic document recommendation program 01. Those skilled in the art can understand that the structure shown in Figure 1 does not constitute a smart semantic document recommendation device
  • the definition of 1 may include fewer or more components than shown, or a combination of certain components, or different component arrangements.
  • the smart semantic document recommendation program 01 is stored in the memory 11; when the processor 12 executes the smart semantic document recommendation program 01 stored in the memory 11, the following steps are implemented:
  • Step 1 Obtain all document information in the document database to form a corpus.
  • various documents are stored in the document database, and the documents can be queried by a search engine using a preset search strategy.
  • Step 2 Collect the user's historical query information and the document information selected by the user from the retrieval result set obtained according to the historical query information, and perform a preprocessing operation on the historical query information and the document information selected by the user to obtain the historical query Information and feature points of the document information selected by the user.
  • a user once entered the query information "How about Ping An Life" in a search engine, and the search engine outputs N result sets in the form of a list according to the input query information.
  • the N result sets may be searched and sorted literally.
  • search and sorting methods may make users unable to find the content they need immediately. Therefore, after a long period of filtering, users may select one or several pieces of document information to click and view.
  • the preferred embodiment of the present application collects each historical query information entered by the user in the search engine and document information selected by the user from the output result set searched based on the historical query information.
  • the preprocessing operations described in this application include word segmentation operations and keyword extraction operations.
  • the sentence S is segmented using the full segmentation method to obtain all possible Chinese word segmentation methods, calculate the probability of each of the word segmentation methods, and select the one with the highest probability
  • the word segmentation result in the method is used as the final document word segmentation result.
  • the probability of occurrence of the nth word in a document is only related to the occurrence of n-1 words before it, and has nothing to do with all words after the nth word. Therefore, in a word sequence ⁇ W 1 , the probability of W 2 ... W m ⁇ sentence consisting of S, a case where the n-1 words appearing first, the n-th words W i appears as:
  • W m-i+1 ,...W m-1 ) means: the probability of W m appearing in the case of the occurrence of the string W m-i+1 ,...W m-1 , through On the basis of large-scale corpus training, a binary grammar model is used. Therefore, the probability model of the sentence S is:
  • This application selects the word segmentation result corresponding to the maximum value of P(S) from all the P(S) calculated above as the word segmentation result of this case:
  • keyword extraction is performed on the word segmentation result through a keyword extraction method.
  • the keyword extraction algorithm uses statistical information, word vector information, and dependency syntax information between words to calculate the correlation strength between words by constructing a dependency relationship graph, and iteratively calculates the importance score of words using the TextRank algorithm, and calculates the importance of words according to the sentence
  • the result of the dependency syntax analysis is to construct an undirected graph for all non-stop words, and calculate the weight of the edge by using the gravity value between the words and the degree of dependency correlation.
  • the keyword extraction method includes:
  • len(W i , W j ) represents the length of the dependency path between words W i and W j
  • b is the number of hyperparameters
  • tfidf (W) is a TF-IDF value of word W
  • TF represents term frequency
  • IDF represents inverse document frequency index
  • d is the Euclidean distance between the vectors of words W i and W words of J;
  • W i is associated with a set of vertices
  • is the damping coefficient
  • the preferred embodiment of the present application sorts all words according to the importance score, and selects a preset number of keywords from the words according to the sort, for example, selects the word with the highest importance score
  • the n words of are used as keywords to obtain the query information and the feature points of the document information selected by the user.
  • Step 3 Use the document information in the corpus as a training set, and use the historical query information and the feature points of the document information selected by the user as a label set, and use the training set to train the constructed intelligent semantic document recommendation model To obtain a training value, and input the training value and the label set into the loss function of the intelligent semantic document recommendation model, and exit the training when the training value of the loss function is less than a preset threshold.
  • the intelligent semantic document recommendation model includes a convolutional neural network.
  • the convolutional neural network is a feed-forward neural network. Its artificial neurons can respond to a part of the surrounding units in the coverage area. Its basic structure includes two layers. One is the feature extraction layer. The input of each neuron is The local receptive fields of the previous layer are connected, and the local features are extracted. Once the local feature is extracted, the positional relationship between it and other features is also determined; the second is the feature mapping layer, each computing layer of the network is composed of multiple feature maps, and each feature map is a plane. The weights of all neurons on the plane are equal.
  • the convolutional neural network includes an input layer, a convolutional layer, a pooling layer, and an output layer.
  • the preferred embodiment of the present application converts the text of the training set and the label set into a vector representation, inputs the vector into the input layer of the convolutional neural network model, and presets it in the convolutional layer
  • a set of filters perform convolution operations on the vector to extract feature vectors.
  • the filters can be ⁇ filter 0 ,filter 1 ⁇ , which are used to generate a set of features on similar channels and different channels;
  • the pooling layer performs a pooling operation on the feature vector and inputs it to the fully connected layer.
  • the text in the training set is preset as Z and the text in the label set is T
  • each keyword Key Z in the keyword sequence Key Z in the text Z is converted Represented as a vector Key Key Z T calculated by the keyword in the sequence of the text semantic matching vector T That is, some keywords in Key T are used to represent Key Z , based on semantic matching vectors Correct Decompose, get the similarity vector between Key Z and Key T Dissimilarity vector Perform the above operations on each word in the text Z to obtain the similarity matrix of K Z Dissimilarity matrix will with The feature vectors of text Z and text T are obtained by merging.
  • a classification label is input to the feature vector through the Softmax activation function to calculate the output text category probability, and the text category probability is input into the loss function to calculate the loss function value, When the loss function value is less than the threshold, the training is exited.
  • the threshold is preset to 0.01.
  • J is the loss function value
  • y i is the true label of the category i of the output text
  • k is the number of the output text categories
  • N is the total number of samples of the output text.
  • Step 4 Receive the query information currently input by the user, use the intelligent semantic document recommendation model to perform document retrieval from the document database according to the query information, and output the document retrieval results to the user after sorting.
  • the preferred embodiment of the present application classifies the document information selected by the user from the retrieval result set output based on the historical query information according to the field, calculates the number of clicks and the contribution of the selected document information, and calculates it using a linear cumulative weighting method The user's degree of interest in the selected document information, and sorting the document retrieval results according to the degree of interest.
  • the linear cumulative weighting method includes:
  • the preset user u inputs n query information belonging to the domain t:
  • a(u,q,t) represents the user u's interest in the current document q
  • q ⁇ t a h (u,t) represents the user u's cumulative interest in the field t
  • v 1 (u,q,t ) Represents the normalized number of votes obtained by the search results provided by the user u under the query information q
  • q ⁇ t ⁇ is a hyperparameter.
  • the preferred embodiment of this case further trains the intelligent semantic document recommendation model based on the query information currently input by the user and the document information selected by the user from the document retrieval results returned by the intelligent semantic document recommendation model according to the query information,
  • the intelligent semantic document recommendation model is continuously optimized and updated to provide users with better document recommendation results.
  • the intelligent semantic document recommendation program may also be divided into one or more modules, and the one or more modules are stored in the memory 11 and run by one or more processors (this embodiment It is executed by the processor 12) to complete this application.
  • the module referred to in this application refers to a series of computer program instruction segments that can complete specific functions, and is used to describe the execution process of the intelligent semantic document recommendation program in the intelligent semantic document recommendation device .
  • FIG. 3 a schematic diagram of the program modules of the smart semantic document recommendation program in an embodiment of the smart semantic document recommendation device of this application.
  • the smart semantic document recommendation program can be divided into document information acquisition Module 10, information preprocessing module 20, model training module 30, and retrieval module 40, exemplarily:
  • the document information acquisition module 10 is used for: all document information in the document database forms a corpus.
  • the information preprocessing module 20 is configured to collect historical query information of the user and document information selected by the user from the retrieval result set obtained according to the historical query information, and preprocess the historical query information and document information selected by the user Operation to obtain the query information and the feature points of the document information selected by the user.
  • the model training module 30 is configured to: use the document information in the corpus as a training set, and use the query information and the feature points of the document information selected by the user as a label set, and use the training set and the label set pair to construct
  • the intelligent semantic document recommendation model of is trained to obtain the training value, and the training value is input into the loss function until the training value of the loss function is less than the preset threshold, then the training is exited.
  • the retrieval module 40 is configured to: receive the query information input by the user, use the intelligent semantic document recommendation model to perform document retrieval from the document database according to the query information, and sort the document retrieval results Output to the user.
  • an embodiment of the present application also proposes a computer-readable storage medium that stores an intelligent semantic document recommendation program, and the intelligent semantic document recommendation program can be executed by one or more processors to Implement the following operations:
  • the document information in the corpus is used as a training set, and the query information and the feature points of the document information selected by the user are used as a label set, and the training set and label set are used to train the constructed intelligent semantic document recommendation model, Obtain the training value, input the training value into the loss function, and exit the training when the training value of the loss function is less than the preset threshold;
  • the query information input by the user is received, and the intelligent semantic document recommendation model is used to perform document retrieval from the document database according to the query information, and the document retrieval results are sorted and output to the user.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种智能语义文档推荐方法、装置以及计算机可读存储介质,涉及语音语义技术领域,该方法包括:获取文档数据库中所有的文档信息,组成语料库(S1);采集用户的历史查询信息以及用户历史选择的文档信息,对所述历史查询信息以及用户历史选择的文档信息进行预处理操作,得到所述查询信息以及用户选择的文档信息的特征点(S2);将所述语料库中的文档信息作为训练集,以及将所述历史查询信息以及用户选择的文档信息的特征点作为标签集,利用所述训练集和标签集对构建的智能语义文档推荐模型进行训练,得到训练值,将所述训练值输入至损失函数中,直至所述损失函数训练值小于预设阈值时,退出训练(S3);接收所述用户输入的查询信息,根据所述查询信息,利用所述智能语义文档推荐模型,从所述文档数据库中进行文档检索,并对文档检索结果进行排序后输出给用户(S4)。

Description

智能语义文档推荐方法、装置及计算机可读存储介质
本申请基于巴黎公约申明享有2019年5月6日递交的申请号为CN201910370433.9、名称为“智能语义文档推荐方法、装置及计算机可读存储介质”的中国专利申请的优先权,该中国专利申请的整体内容以参考的方式结合在本申请中。
技术领域
本申请涉及语音语义技术领域,尤其涉及一种基于知识内容和用户行为协同的智能语义文档推荐方法、装置及计算机可读存储介质。
背景技术
话术,表现了人们思考问题和说话的方式,有些人说话一语中的,听者可以很清楚的了解、明白说话人想表达的意思,并给出正确的反馈,而有些人说话却犹如隔靴搔痒,需要更深入的了解说话人想要表达的意思,才能给出正确的反馈。
当用户需要查阅某方面的资料时,鉴于该用户平时思考问题和说话的方式,根据该用户在搜索框中输入的文档信息,采用传统的按字面意思的文档搜索方法,诸如余弦相似度、Jaccard距离、VSM等,搜索到并推荐给用户的资料可能会与所述用户真正需要资料的不相符,从而浪费用户的精力与时间,并给用户带来了不好的使用体验。
发明内容
本申请提供一种智能语义文档推荐方法、装置及计算机可读存储介质,其主要目的在于提供一种个性化的文档信息搜索与推荐方案。
为实现上述目的,本申请提供的一种智能语义文档推荐方法,包括:
获取文档数据库中所有的文档信息,组成语料库;
采集用户的历史查询信息以及用户从根据所述历史查询信息得到的检索结果集中选择的文档信息,对所述历史查询信息以及用户选择的文档信息进行预处理操作,得到所述历史查询信息以及用户选择的文档信息的特征点;
将所述语料库中的文档信息作为训练集,以及将所述历史查询信息以及用户选择的文档信息的特征点作为标签集,利用所述训练集和标签集对构建的智能语义文档推荐模型进行训练,得到训练值,将所述训练值和所述标签集输入至所述智能语义文档推荐模型损失函数中,直至所述损失函数训练值小于预设阈值时,退出训练;
接收所述用户输入的查询信息,根据所述查询信息,利用所述智能语义文档推荐模型,从所述文档数据库中进行文档检索,并对文档检索结果进行排序后输出给用户。
此外,为实现上述目的,本申请还提供一种智能语义文档推荐装置,该装置包括存储器和处理器,所述存储器中存储有可在所述处理器上运行的智能语义文档推荐程序,所述智能语义文档推荐程序被所述处理器执行时实现如下步骤:
获取文档数据库中所有的文档信息,组成语料库;
采集用户的历史查询信息以及用户从根据所述历史查询信息得到的检索结果集中选择的文档信息,对所述历史查询信息以及用户选择的文档信息进行预处理操作,得到所述历史查询信息以及用户选择的文档信息的特征点;
将所述语料库中的文档信息作为训练集,以及将所述历史查询信息以及用户选择的文档信息的特征点作为标签集,利用所述训练集和标签集对构建的智能语义文档推荐模型进行训练,得到训练值,将所述训练值和所述标签集输入至所述智能语义文档推荐模型损失函数中,直至所述损失函数训练值小于预设阈值时,退出训练;
接收所述用户输入的查询信息,根据所述查询信息,利用所述智能语义文档推荐模型,从所述文档数据库中进行文档检索,并对文档检索结果进行排序后输出给用户。
此外,为实现上述目的,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有智能语义文档推荐程序,所述智能语义文档推荐程序可被一个或者多个处理器执行,以实现如上所述的智能语义文档推荐方法的步骤。
本申请提出的智能语义文档推荐方法、装置及计算机可读存储介质,接收用户输入的查询信息,根据所述查询信息,利用所述智能语义文档推荐模 型,从所述文档数据库中进行文档检索,对文档检索结果进行排序后输出给用户,给用户提供一种个性化的文档信息搜索与推荐方案。
附图说明
图1为本申请一实施例提供的智能语义文档推荐方法的流程示意图;
图2为本申请一实施例提供的智能语义文档推荐装置的内部结构示意图;
图3为本申请一实施例提供的智能语义文档推荐装置中智能语义文档推荐程序的模块示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供一种智能语义文档推荐方法。参照图1所示,为本申请一实施例提供的智能语义文档推荐方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,智能语义文档推荐方法包括:
S1、获取文档数据库中所有的文档信息,组成语料库。
本申请较佳实施例中,所述文档数据库中存储有各种文档,该文档可以被搜索引擎利用预设的搜索策略所查询到。
S2、采集用户的历史查询信息以及用户从根据所述历史查询信息得到的检索结果集中选择的文档信息,对所述历史查询信息以及用户选择的文档信息进行预处理操作,得到所述历史查询信息以及用户选择的文档信息的特征点。
例如,用户曾经在一个搜索引擎中输入查询信息“平安寿险怎么样”,所述搜索引擎根据该输入的查询信息,以列表的形式输出N条结果集。通常情况下,该N条结果集可能是按照字面意思进行搜索并排序的。这样的搜索以及排序方式有可能使用户不能立刻找到自己所需要的内容,于是,用户可能在经过长时间的筛选之后,选择其中的一条或者几条文档信息进行点击查阅。 本申请较佳实施例搜集用户在搜索引擎中输入的每一次历史查询信息以及用户从根据所述历史查询信息搜索到的输出结果集中选择的文档信息。
本申请所述预处理操作包括分词操作以及关键词提取操作。
本申请所述分词操作中对所述句子S使用全切分法进行切分,获得所有可能的中文分词方式,计算出所述每一种分词方式的概率,选出其中概率最大的一种分词方式中的分词结果,作为最终文档分词结果。
根据马尔科夫性,文档中第n个词出现的可能性只与其前面n-1个词语的出现有关,而与第n个词语之后的所有词语无关,因此,在一个由词序列{W 1,W 2…W m}组成的句子S中,在前n-1个词语出现的情况下,第n词语W i出现的概率为:
P(W i|W 1,…W i-1)=P(W i|W i-n+1,…W i-1)
因此,所述句子S按照所述词序排列的概率为:
P(S)=P(W 1W 2…W m)=P(W 1)P(W 2|W 1)…P(W m|W m-i+1,…W m-1)
其中条件概率P(W m|W m-i+1,…W m-1)表示:在字符串W m-i+1,…W m-1出现的情况下W m出现的概率,通过在大规模语料库训练的基础上,使用二元语法模型,因此,所述句子S的概率模型为:
Figure PCTCN2019102192-appb-000001
本申请从上述计算出来的所有P(S)选择P(S)的极大值对应的分词结果作为本案的分词结果:
Figure PCTCN2019102192-appb-000002
进一步地,本申请较佳实施例中通过关键词提取方法对所述分词结果进行关键词抽取。所述关键词提取算法是利用统计信息、词向量信息以及词语间的依存句法信息,通过构建依存关系图来计算词语之间的关联强度,利用TextRank算法迭代算出词语的重要度得分,并根据句子的依存句法分析结果对所有非停用词构造无向图,利用词语之间的引力值以及依存关联度计算求得边的权重。
详细地,所关键词提取方法包括:
计算根据上述分词结果得到的任意两个词语W i和W j的依存关联度:
Figure PCTCN2019102192-appb-000003
其中,len(W i,W j)表示词语W i和W j之间的依存路径长度,b是超参数数;
计算词语W i和W j的引力:
Figure PCTCN2019102192-appb-000004
其中,tfidf(W)是词语W的TF-IDF值,TF表示词频,IDF表示逆文档频率指数,d是词语W i和W j的词向量之间的欧式距离;
得到词语W i和W j之间的关联度为:
weight(W i,W j)=Dep(W i,W j)*f grav(W i,W j)
利用TextRank算法建立一个有所有分词构建的无向图G=(V,E),其中V是顶点的集合,E是边的集合,得到词语的重要度得分集合。
计算出词语W i的重要度得分:
Figure PCTCN2019102192-appb-000005
其中,
Figure PCTCN2019102192-appb-000006
是与顶点W i有关的集合,η为阻尼系数。
进一步地,本申请较佳实施例根据所述重要度得分,对所有词语进行排序,根据所述排序从所述词语中选择预设数量的关键词,例如,选取所述词语的重要度最高分的n个词语作为关键词,从而得到所述查询信息以及用户选择的文档信息的特征点。
S3、将所述语料库中的文档信息作为训练集,以及将所述历史查询信息以及用户选择的文档信息的特征点作为标签集,利用所述训练集对构建的智能语义文档推荐模型进行训练,得到训练值,将所述训练值和所述标签集输入至所述智能语义文档推荐模型的损失函数中,直至所述损失函数训练值小于预设阈值时,退出训练。
本申请较佳实施例中,所述智能语义文档推荐模型包括卷积神经网络。所述卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,其基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。
本申请较佳实施例中,所述卷积神经网络包含输入层、卷积层、池化层 以及输出层。本申请较佳实施例对所述训练集和标签集的文本转换为向量表示,将所述向量输入至所述卷积神经网络模型的输入层中,并通过在所述卷积层中预设一组过滤器对所述向量进行卷积操作,提取出特征向量,所述过滤器可以为{filter 0,filter 1},分别用于在相似通道和相异通道上来生成一组特征;利用所述池化层对所述特征向量进行池化操作并输入至全连接层。
本申请较佳实施例中,预设所述训练集中的文本为Z和所述标签集中的文本为T,将所述文本Z中的关键词序列Key Z中的每一个关键词Key Z都转化为向量表示
Figure PCTCN2019102192-appb-000007
通过所述文本T中的关键词序列Key T计算Key Z的语义匹配向量
Figure PCTCN2019102192-appb-000008
即用Key T中的部分关键词表示Key Z,基于语义匹配向量
Figure PCTCN2019102192-appb-000009
Figure PCTCN2019102192-appb-000010
进行分解,得到Key Z与Key T间相似向量
Figure PCTCN2019102192-appb-000011
以及相异向量
Figure PCTCN2019102192-appb-000012
对所述文本Z中中每一个词都进行上述操作,便得到K Z的相似矩阵
Figure PCTCN2019102192-appb-000013
和相异矩阵
Figure PCTCN2019102192-appb-000014
Figure PCTCN2019102192-appb-000015
Figure PCTCN2019102192-appb-000016
进行合并便得到文本Z和文本T的特征向量。
进一步地,本申请较佳实施例中通过Softmax激活函数对所述特征向量输入分类标签,从而计算出输出的文本类别概率,并将所述文本类别概率输入至损失函数中,计算损失函数值,当所述损失函数值小于阈值时,退出训练。本申请较佳实施例中所述阈值预设为0.01。
所述softmax函数计算公式为:
Figure PCTCN2019102192-appb-000017
其中,
Figure PCTCN2019102192-appb-000018
表示文本类别i输出的指数,分母是所有类别输出的指数和,共k个类别。
所述损失函数计算公式为:
Figure PCTCN2019102192-appb-000019
其中,J是损失函数值,y i是所述输出的文本的类别i的真实标签,k是所述输出的文本类别数,N是所述输出的文本的样本总数。
S4、接收所述用户当前输入的查询信息,根据所述查询信息,利用所述智能语义文档推荐模型,从所述文档数据库中进行文档检索,并对文档检索结果进行排序后输出给用户。
本申请较佳实施例对用户从根据历史查询信息输出的检索结果集中选择的文档信息按照领域进行分类,统计出所述选择的文档信息的点击次数和贡 献度,并利用线性累计加权方法计算出用户对所述选择的文档信息的兴趣程度,并根据所述感兴趣程度,对所述文档检索结果进行排序。
其中,所述线性累计加权方法包括:
预设用户u输入了n个属于领域t的查询信息:
a(u,q,t)=(1-β)v 1(u,q,t)+βa h(u,t)
其中,a(u,q,t)表示用户u在当前文档q下的兴趣,q∈t,a h(u,t)表示用户u在领域t的累积兴趣,v 1(u,q,t)表示用户u在查询信息q下提供的检索结果获得的归一化票数,并且有q∈t,β是超参数。
进一步地,本案较佳实施例根据用户当前输入的查询信息,以及用户从所述智能语义文档推荐模型根据该查询信息返回的文档检索结果中选择的文档信息进一步训练所述智能语义文档推荐模型,使得所述智能语义文档推荐模型进行不断的优化和更新,为用户提供更优质的文档推荐结果。
发明还提供一种智能语义文档推荐装置。参照图2所示,为本申请一实施例提供的智能语义文档推荐装置的内部结构示意图。(对应修改)
在本实施例中,所述智能语义文档推荐装置1可以是PC(Personal Computer,个人电脑),或者是智能手机、平板电脑、便携计算机等终端设备,也可以是一种服务器等。该智能语义文档推荐装置1至少包括存储器11、处理器12,通信总线13,以及网络接口14。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是智能语义文档推荐装置1的内部存储单元,例如该智能语义文档推荐装置1的硬盘。存储器11在另一些实施例中也可以是智能语义文档推荐装置1的外部存储设备,例如智能语义文档推荐装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器11还可以既包括智能语义文档推荐装置1的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于智能语义文档推荐装置1的应用软件及各类数据,例如智能语义文档推荐程序01的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行智能语义文档推荐程序01等。
通信总线13用于实现这些组件之间的连接通信。
网络接口14可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该装置1与其他电子设备之间建立通信连接。
可选地,该装置1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在智能语义文档推荐装置1中处理的信息以及用于显示可视化的用户界面。
图2仅示出了具有组件11-14以及智能语义文档推荐程序01的智能语义文档推荐装置1,本领域技术人员可以理解的是,图1示出的结构并不构成对智能语义文档推荐装置1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
在图2所示的装置1实施例中,存储器11中存储有智能语义文档推荐程序01;处理器12执行存储器11中存储的智能语义文档推荐程序01时实现如下步骤:
步骤一、获取文档数据库中所有的文档信息,组成语料库。
本申请较佳实施例中,所述文档数据库中存储有各种文档,该文档可以被搜索引擎利用预设的搜索策略所查询到。
步骤二、采集用户的历史查询信息以及用户从根据所述历史查询信息得到的检索结果集中选择的文档信息,对所述历史查询信息以及用户选择的文档信息进行预处理操作,得到所述历史查询信息以及用户选择的文档信息的特征点。
例如,用户曾经在一个搜索引擎中输入查询信息“平安寿险怎么样”,所述搜索引擎根据该输入的查询信息,以列表的形式输出N条结果集。通常情况下,该N条结果集可能是按照字面意思进行搜索并排序的。这样的搜索以 及排序方式有可能使用户不能立刻找到自己所需要的内容,于是,用户可能在经过长时间的筛选之后,选择其中的一条或者几条文档信息进行点击查阅。本申请较佳实施例搜集用户在搜索引擎中输入的每一次历史查询信息以及用户从根据所述历史查询信息搜索到的输出结果集中选择的文档信息。
本申请所述预处理操作包括分词操作以及关键词提取操作。
本申请所述分词操作中对所述句子S使用全切分法进行切分,获得所有可能的中文分词方式,计算出所述每一种分词方式的概率,选出其中概率最大的一种分词方式中的分词结果,作为最终文档分词结果。
根据马尔科夫性,文档中第n个词出现的可能性只与其前面n-1个词语的出现有关,而与第n个词语之后的所有词语无关,因此,在一个由词序列{W 1,W 2…W m}组成的句子S中,在前n-1个词语出现的情况下,第n词语W i出现的概率为:
P(W i|W 1,…W i-1)=P(W i|W i-n+1,…W i-1)
因此,所述句子S按照所述词序排列的概率为:
P(S)=P(W 1W 2…W m)=P(W 1)P(W 2|W 1)…P(W m|W m-i+1,…W m-1)
其中条件概率P(W m|W m-i+1,…W m-1)表示:在字符串W m-i+1,…W m-1出现的情况下W m出现的概率,通过在大规模语料库训练的基础上,使用二元语法模型,因此,所述句子S的概率模型为:
Figure PCTCN2019102192-appb-000020
本申请从上述计算出来的所有P(S)选择P(S)的极大值对应的分词结果作为本案的分词结果:
Figure PCTCN2019102192-appb-000021
进一步地,本申请较佳实施例中通过关键词提取方法对所述分词结果进行关键词抽取。所述关键词提取算法是利用统计信息、词向量信息以及词语间的依存句法信息,通过构建依存关系图来计算词语之间的关联强度,利用TextRank算法迭代算出词语的重要度得分,并根据句子的依存句法分析结果对所有非停用词构造无向图,利用词语之间的引力值以及依存关联度计算求得边的权重。
详细地,所关键词提取方法包括:
计算根据上述分词结果得到的任意两个词语W i和W j的依存关联度:
Figure PCTCN2019102192-appb-000022
其中,len(W i,W j)表示词语W i和W j之间的依存路径长度,b是超参数数;
计算词语W i和W j的引力:
Figure PCTCN2019102192-appb-000023
其中,tfidf(W)是词语W的TF-IDF值,TF表示词频,IDF表示逆文档频率指数,d是词语W i和W j的词向量之间的欧式距离;
得到词语W i和W j之间的关联度为:
weight(W i,W j)=Dep(W i,W j)*f grav(W i,W j)
利用TextRank算法建立一个有所有分词构建的无向图G=(V,E),其中V是顶点的集合,E是边的集合,得到词语的重要度得分集合。
计算出词语W i的重要度得分:
Figure PCTCN2019102192-appb-000024
其中,
Figure PCTCN2019102192-appb-000025
是与顶点W i有关的集合,η为阻尼系数。
进一步地,本申请较佳实施例根据所述重要度得分,对所有词语进行排序,根据所述排序从所述词语中选择预设数量的关键词,例如,选取所述词语的重要度最高分的n个词语作为关键词,从而得到所述查询信息以及用户选择的文档信息的特征点。
步骤三、将所述语料库中的文档信息作为训练集,以及将所述历史查询信息以及用户选择的文档信息的特征点作为标签集,利用所述训练集对构建的智能语义文档推荐模型进行训练,得到训练值,将所述训练值和所述标签集输入至所述智能语义文档推荐模型的损失函数中,直至所述损失函数训练值小于预设阈值时,退出训练。
本申请较佳实施例中,所述智能语义文档推荐模型包括卷积神经网络。所述卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,其基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。
本申请较佳实施例中,所述卷积神经网络包含输入层、卷积层、池化层以及输出层。本申请较佳实施例对所述训练集和标签集的文本转换为向量表示,将所述向量输入至所述卷积神经网络模型的输入层中,并通过在所述卷积层中预设一组过滤器对所述向量进行卷积操作,提取出特征向量,所述过滤器可以为{filter 0,filter 1},分别用于在相似通道和相异通道上来生成一组特征;利用所述池化层对所述特征向量进行池化操作并输入至全连接层。
本申请较佳实施例中,预设所述训练集中的文本为Z和所述标签集中的文本为T,将所述文本Z中的关键词序列Key Z中的每一个关键词Key Z都转化为向量表示
Figure PCTCN2019102192-appb-000026
通过所述文本T中的关键词序列Key T计算Key Z的语义匹配向量
Figure PCTCN2019102192-appb-000027
即用Key T中的部分关键词表示Key Z,基于语义匹配向量
Figure PCTCN2019102192-appb-000028
Figure PCTCN2019102192-appb-000029
进行分解,得到Key Z与Key T间相似向量
Figure PCTCN2019102192-appb-000030
以及相异向量
Figure PCTCN2019102192-appb-000031
对所述文本Z中中每一个词都进行上述操作,便得到K Z的相似矩阵
Figure PCTCN2019102192-appb-000032
和相异矩阵
Figure PCTCN2019102192-appb-000033
Figure PCTCN2019102192-appb-000034
Figure PCTCN2019102192-appb-000035
进行合并便得到文本Z和文本T的特征向量。
进一步地,本申请较佳实施例中通过Softmax激活函数对所述特征向量输入分类标签,从而计算出输出的文本类别概率,并将所述文本类别概率输入至损失函数中,计算损失函数值,当所述损失函数值小于阈值时,退出训练。本申请较佳实施例中所述阈值预设为0.01。
所述softmax函数计算公式为:
Figure PCTCN2019102192-appb-000036
其中,
Figure PCTCN2019102192-appb-000037
表示文本类别i输出的指数,分母是所有类别输出的指数和,共k个类别。
所述损失函数计算公式为:
Figure PCTCN2019102192-appb-000038
其中,J是损失函数值,y i是所述输出的文本的类别i的真实标签,k是所述输出的文本类别数,N是所述输出的文本的样本总数。
步骤四、接收所述用户当前输入的查询信息,根据所述查询信息,利用所述智能语义文档推荐模型,从所述文档数据库中进行文档检索,并对文档检索结果进行排序后输出给用户。
本申请较佳实施例对用户从根据历史查询信息输出的检索结果集中选择 的文档信息按照领域进行分类,统计出所述选择的文档信息的点击次数和贡献度,并利用线性累计加权方法计算出用户对所述选择的文档信息的兴趣程度,并根据所述感兴趣程度,对所述文档检索结果进行排序。
其中,所述线性累计加权方法包括:
预设用户u输入了n个属于领域t的查询信息:
a(u,q,t)=(1-β)v 1(u,q,t)+βa h(u,t)
其中,a(u,q,t)表示用户u在当前文档q下的兴趣,q∈t,a h(u,t)表示用户u在领域t的累积兴趣,v 1(u,q,t)表示用户u在查询信息q下提供的检索结果获得的归一化票数,并且有q∈t,β是超参数。
进一步地,本案较佳实施例根据用户当前输入的查询信息,以及用户从所述智能语义文档推荐模型根据该查询信息返回的文档检索结果中选择的文档信息进一步训练所述智能语义文档推荐模型,使得所述智能语义文档推荐模型进行不断的优化和更新,为用户提供更优质的文档推荐结果。
可选地,在其他实施例中,智能语义文档推荐程序还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由一个或多个处理器(本实施例为处理器12)所执行以完成本申请,本申请所称的模块是指能够完成特定功能的一系列计算机程序指令段,用于描述智能语义文档推荐程序在智能语义文档推荐装置中的执行过程。
例如,参照图3所示,为本申请智能语义文档推荐装置一实施例中的智能语义文档推荐程序的程序模块示意图,该实施例中,所述智能语义文档推荐程序可以被分割为文档信息获取模块10、信息预处理模块20、模型训练模块30以及检索模块40,示例性地:
所述文档信息获取模块10用于:文档数据库中所有的文档信息,组成语料库。
所述信息预处理模块20用于:采集用户的历史查询信息以及用户从根据所述历史查询信息得到的检索结果集中选择的文档信息,对所述历史查询信息以及用户选择的文档信息进行预处理操作,得到所述查询信息以及用户选择的文档信息的特征点。
所述模型训练模块30用于:将所述语料库中的文档信息作为训练集,以及将所述查询信息以及用户选择的文档信息的特征点作为标签集,利用所述 训练集和标签集对构建的智能语义文档推荐模型进行训练,得到训练值,将所述训练值输入至损失函数中,直至所述损失函数训练值小于预设阈值时,退出训练。
所述检索模块40用于:接收所述用户输入的查询信息,根据所述查询信息,利用所述智能语义文档推荐模型,从所述文档数据库中进行文档检索,并对文档检索结果进行排序后输出给用户。
上述文档信息获取模块10、信息预处理模块20、模型训练模块30以及检索模块40等程序模块被执行时所实现的功能或操作步骤与上述实施例大体相同,在此不再赘述。
此外,本申请实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有智能语义文档推荐程序,所述智能语义文档推荐程序可被一个或多个处理器执行,以实现如下操作:
获取文档数据库中所有的文档信息,组成语料库;
采集用户的历史查询信息以及用户从根据所述历史查询信息得到的检索结果集中选择的文档信息,对所述历史查询信息以及用户选择的文档信息进行预处理操作,得到所述查询信息以及用户选择的文档信息的特征点;
将所述语料库中的文档信息作为训练集,以及将所述查询信息以及用户选择的文档信息的特征点作为标签集,利用所述训练集和标签集对构建的智能语义文档推荐模型进行训练,得到训练值,将所述训练值输入至损失函数中,直至所述损失函数训练值小于预设阈值时,退出训练;
接收所述用户输入的查询信息,根据所述查询信息,利用所述智能语义文档推荐模型,从所述文档数据库中进行文档检索,并对文档检索结果进行排序后输出给用户。
本申请计算机可读存储介质具体实施方式与上述智能语义文档推荐装置和方法各实施例基本相同,在此不作累述。
需要说明的是,上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括 那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (20)

  1. 一种智能语义文档推荐方法,其特征在于,所述方法包括:
    获取文档数据库中所有的文档信息,组成语料库;
    采集用户的历史查询信息以及用户从根据所述历史查询信息得到的检索结果集中选择的文档信息,对所述历史查询信息以及用户选择的文档信息进行预处理操作,得到所述历史查询信息以及用户选择的文档信息的特征点;
    将所述语料库中的文档信息作为训练集,以及将所述历史查询信息以及用户选择的文档信息的特征点作为标签集,利用所述训练集对构建的智能语义文档推荐模型进行训练,得到训练值,将所述训练值和所述标签集输入至所述智能语义文档推荐模型的损失函数中,直至所述损失函数训练值小于预设阈值时,退出训练;
    接收所述用户输入的查询信息,根据所述查询信息,利用所述智能语义文档推荐模型,从所述文档数据库中进行文档检索,并对文档检索结果进行排序后输出给用户。
  2. 如权利要求1所述的智能语义文档推荐方法,其特征在于,所述预处理操作包括:
    利用全切分法对所述历史查询信息以及对应选择的文档信息进行切分,获取多种分词方式;
    通过马尔可夫模型计算出每一种分词方式的概率,选择概率最大的一种分词方式中的分词结果,作为所述历史查询信息以及对应选择的文档信息的分词结果。
  3. 如权利要求2所述的智能语义文档推荐方法,其特征在于,所述预处理操作还包括:
    对所述分词结果进行关键词提取,具体计算方式如下所示:
    计算所述分词结果中的任意两个词语W i和W j的依存关联度:
    Figure PCTCN2019102192-appb-100001
    其中,len(W i,W j)表示词语W i和W j之间的依存路径长度,b是超参数;
    计算词语W i和W j的引力:
    Figure PCTCN2019102192-appb-100002
    其中,tfidf(W)是词语W的TF-IDF值,TF表示词频,IDF表示逆文档频率指数,d是词语W i和W j的词向量之间的欧式距离;
    得到词语W i和W j之间的关联度为:
    weight(W i,W j)=Dep(W i,W j)*f grav(W i,W j)
    建立无向图G=(V,E),其中V是顶点的集合,E是边的集合;
    计算出词语W i的重要度得分:
    Figure PCTCN2019102192-appb-100003
    其中,
    Figure PCTCN2019102192-appb-100004
    是与顶点W i有关的集合,η为阻尼系数;
    根据所述重要度得分,对所有词语进行排序,根据所述排序从所述词语中选择预设数量的关键词。
  4. 如权利要求1所述的智能语义文档推荐方法,其特征在于,所述利用所述训练集对构建的智能语义文档推荐模型进行训练,得到训练值,包括:
    搭建包括卷积神经网络的智能语义文档推荐模型;
    对所述训练集转换为向量后输入至所述卷积神经网络的输入层中,并通过在所述卷积神经网络卷积层中预设一组过滤器对所述向量进行卷积操作,提取出特征向量;
    利用所述卷积神经网络的池化层对所述特征向量进行池化操作并输入至全连接层,通过激活函数对所述特征向量输入分类标签,输出文本类别概率,得到所述训练值。
  5. 如权利要求4所述的智能语义文档推荐方法,其特征在于,所述激活函数为Softmax激活函数,所述Softmax激活函数的计算公式为:
    Figure PCTCN2019102192-appb-100005
    式中,P i为文本类别i输出的概率,
    Figure PCTCN2019102192-appb-100006
    为文本类别i输出的指数,
    Figure PCTCN2019102192-appb-100007
    为文本类别j输出的指数,k为输出的文本类别数。
  6. 如权利要求5所述的智能语义文档推荐方法,其特征在于,所述损失函数的计算公式为:
    Figure PCTCN2019102192-appb-100008
    式中,J为损失函数值,y i为输出的文本类别i的真实标签,k为输出的 文本类别数,N为输出的文本的样本总数,P i为文本类别i输出的概率。
  7. 如权利要求1至6中任意一项所述的智能语义文档推荐方法,其特征在于,所述对文档检索结果进行排序,包括:
    对用户从根据历史查询信息输出的检索结果集中选择的文档信息按照领域进行分类,统计出所述选择的文档信息的点击次数和贡献度,并利用线性累计加权方法计算出用户对所述选择的文档信息的感兴趣程度,并根据所述感兴趣程度,对所述文档检索结果进行排序;
    其中,所述线性累计加权方法包括:
    预设用户u输入了n个属于领域t的查询信息:
    a(u,q,t)=(1-β)v l(u,q,t)+βa h(u,t)
    其中,a(u,q,t)表示用户u在当前查询信息q下的兴趣,q∈t,a h(u,t)表示用户u在领域t的累积兴趣,v l(u,q,t)表示用户u在查询信息q下提供的检索结果获得的归一化票数,并且有q∈t,β是超参数。
  8. 一种智能语义文档推荐装置,其特征在于,所述装置包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的智能语义文档推荐程序,所述智能语义文档推荐程序被所述处理器执行时实现如下步骤:
    获取文档数据库中所有的文档信息,组成语料库;
    采集用户的历史查询信息以及用户从根据所述历史查询信息得到的检索结果集中选择的文档信息,对所述历史查询信息以及用户选择的文档信息进行预处理操作,得到所述历史查询信息以及用户选择的文档信息的特征点;
    将所述语料库中的文档信息作为训练集,以及将所述历史查询信息以及用户选择的文档信息的特征点作为标签集,利用所述训练集对构建的智能语义文档推荐模型进行训练,得到训练值,将所述训练值和所述标签集输入至所述智能语义文档推荐模型的损失函数中,直至所述损失函数训练值小于预设阈值时,退出训练;
    接收所述用户输入的查询信息,根据所述查询信息,利用所述智能语义文档推荐模型,从所述文档数据库中进行文档检索,并对文档检索结果进行排序后输出给用户。
  9. 如权利要求8所述的智能语义文档推荐装置,其特征在于,所述预处理操作包括:
    利用全切分法对所述历史查询信息以及对应选择的文档信息进行切分,获取多种分词方式;
    通过马尔可夫模型计算出每一种分词方式的概率,选择概率最大的一种分词方式中的分词结果,作为所述历史查询信息以及对应选择的文档信息的分词结果。
  10. 如权利要求9所述的智能语义文档推荐装置,其特征在于,所述预处理操作还包括:
    对所述分词结果进行关键词提取,具体计算方式如下所示:
    计算所述分词结果中的任意两个词语W i和W j的依存关联度:
    Figure PCTCN2019102192-appb-100009
    其中,len(W i,W j)表示词语W i和W j之间的依存路径长度,b是超参数;
    计算词语W i和W j的引力:
    Figure PCTCN2019102192-appb-100010
    其中,tfidf(W)是词语W的TF-IDF值,TF表示词频,IDF表示逆文档频率指数,d是词语W i和W j的词向量之间的欧式距离;
    得到词语W i和W j之间的关联度为:
    weight(W i,W j)=Dep(W i,W j)*f grav(W i,W j)
    建立无向图G=(V,E),其中V是顶点的集合,E是边的集合;
    计算出词语W i的重要度得分:
    Figure PCTCN2019102192-appb-100011
    其中,
    Figure PCTCN2019102192-appb-100012
    是与顶点W i有关的集合,η为阻尼系数;
    根据所述重要度得分,对所有词语进行排序,根据所述排序从所述词语中选择预设数量的关键词。
  11. 如权利要求8所述的智能语义文档推荐装置,其特征在于,所述利用所述训练集对构建的智能语义文档推荐模型进行训练,得到训练值,包括:
    搭建包括卷积神经网络的智能语义文档推荐模型;
    对所述训练集转换为向量后输入至所述卷积神经网络的输入层中,并通过在所述卷积神经网络卷积层中预设一组过滤器对所述向量进行卷积操作,提取出特征向量;
    利用所述卷积神经网络的池化层对所述特征向量进行池化操作并输入至全连接层,通过激活函数对所述特征向量输入分类标签,输出文本类别概率,得到所述训练值。
  12. 如权利要求11所述的智能语义文档推荐装置,其特征在于,所述激活函数为Softmax激活函数,所述Softmax激活函数的计算公式为:
    Figure PCTCN2019102192-appb-100013
    式中,P i为文本类别i输出的概率,
    Figure PCTCN2019102192-appb-100014
    为文本类别i输出的指数,
    Figure PCTCN2019102192-appb-100015
    为文本类别j输出的指数,k为输出的文本类别数。
  13. 如权利要求12所述的智能语义文档推荐装置,其特征在于,所述损失函数的计算公式为:
    Figure PCTCN2019102192-appb-100016
    式中,J为损失函数值,y i为输出的文本类别i的真实标签,k为输出的文本类别数,N为输出的文本的样本总数,P i为文本类别i输出的概率。
  14. 如权利要求8至13中任意一项所述的智能语义文档推荐装置,其特征在于,所述对文档检索结果进行排序,包括:
    对用户从根据历史查询信息输出的检索结果集中选择的文档信息按照领域进行分类,统计出所述选择的文档信息的点击次数和贡献度,并利用线性累计加权方法计算出用户对所述选择的文档信息的兴趣程度,并根据所述感兴趣程度,对所述文档检索结果进行排序;
    其中,所述线性累计加权方法包括:
    预设用户u输入了n个属于领域t的查询信息:
    a(u,q,t)=(1-β)v l(u,q,t)+βa h(u,t)
    其中,a(u,q,t)表示用户u在当前查询信息q下的兴趣,q∈t,a h(u,t)表示用户u在领域t的累积兴趣,v l(u,q,t)表示用户u在查询信息q下提供的检索结果获得的归一化票数,并且有q∈t,β是超参数。
  15. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有智能语义文档推荐程序,所述智能语义文档推荐程序可被一个或者多个处理器执行,以实现如下步骤:
    获取文档数据库中所有的文档信息,组成语料库;
    采集用户的历史查询信息以及用户从根据所述历史查询信息得到的检索结果集中选择的文档信息,对所述历史查询信息以及用户选择的文档信息进行预处理操作,得到所述历史查询信息以及用户选择的文档信息的特征点;
    将所述语料库中的文档信息作为训练集,以及将所述历史查询信息以及用户选择的文档信息的特征点作为标签集,利用所述训练集对构建的智能语义文档推荐模型进行训练,得到训练值,将所述训练值和所述标签集输入至所述智能语义文档推荐模型的损失函数中,直至所述损失函数训练值小于预设阈值时,退出训练;
    接收所述用户输入的查询信息,根据所述查询信息,利用所述智能语义文档推荐模型,从所述文档数据库中进行文档检索,并对文档检索结果进行排序后输出给用户。
  16. 如权利要求15所述的计算机可读存储介质,其特征在于,所述预处理操作包括:
    利用全切分法对所述历史查询信息以及对应选择的文档信息进行切分,获取多种分词方式;
    通过马尔可夫模型计算出每一种分词方式的概率,选择概率最大的一种分词方式中的分词结果,作为所述历史查询信息以及对应选择的文档信息的分词结果。
  17. 如权利要求16所述的计算机可读存储介质,其特征在于,所述预处理操作还包括:
    对所述分词结果进行关键词提取,具体计算方式如下所示:
    计算所述分词结果中的任意两个词语W i和W j的依存关联度:
    Figure PCTCN2019102192-appb-100017
    其中,len(W i,W j)表示词语W i和W j之间的依存路径长度,b是超参数;
    计算词语W i和W j的引力:
    Figure PCTCN2019102192-appb-100018
    其中,tfidf(W)是词语W的TF-IDF值,TF表示词频,IDF表示逆文档频率指数,d是词语W i和W j的词向量之间的欧式距离;
    得到词语W i和W j之间的关联度为:
    weight(W i,W j)=Dep(W i,W j)*f grav(W i,W j)
    建立无向图G=(V,E),其中V是顶点的集合,E是边的集合;
    计算出词语W i的重要度得分:
    Figure PCTCN2019102192-appb-100019
    其中,
    Figure PCTCN2019102192-appb-100020
    是与顶点W i有关的集合,η为阻尼系数;
    根据所述重要度得分,对所有词语进行排序,根据所述排序从所述词语中选择预设数量的关键词。
  18. 如权利要求15所述的计算机可读存储介质,其特征在于,所述利用所述训练集对构建的智能语义文档推荐模型进行训练,得到训练值,包括:
    搭建包括卷积神经网络的智能语义文档推荐模型;
    对所述训练集转换为向量后输入至所述卷积神经网络的输入层中,并通过在所述卷积神经网络卷积层中预设一组过滤器对所述向量进行卷积操作,提取出特征向量;
    利用所述卷积神经网络的池化层对所述特征向量进行池化操作并输入至全连接层,通过激活函数对所述特征向量输入分类标签,输出文本类别概率,得到所述训练值。
  19. 如权利要求18所述的计算机可读存储介质,其特征在于,所述激活函数为Softmax激活函数,所述Softmax激活函数的计算公式为:
    Figure PCTCN2019102192-appb-100021
    式中,P i为文本类别i输出的概率,
    Figure PCTCN2019102192-appb-100022
    为文本类别i输出的指数,
    Figure PCTCN2019102192-appb-100023
    为文本类别j输出的指数,k为输出的文本类别数。
  20. 如权利要求19所述的计算机可读存储介质,其特征在于,所述损失函数的计算公式为:
    Figure PCTCN2019102192-appb-100024
    式中,J为损失函数值,y i为输出的文本类别i的真实标签,k为输出的文本类别数,N为输出的文本的样本总数,P i为文本类别i输出的概率。
PCT/CN2019/102192 2019-05-06 2019-08-23 智能语义文档推荐方法、装置及计算机可读存储介质 WO2020224097A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910370433.9A CN110222160B (zh) 2019-05-06 2019-05-06 智能语义文档推荐方法、装置及计算机可读存储介质
CN201910370433.9 2019-05-06

Publications (1)

Publication Number Publication Date
WO2020224097A1 true WO2020224097A1 (zh) 2020-11-12

Family

ID=67820315

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/102192 WO2020224097A1 (zh) 2019-05-06 2019-08-23 智能语义文档推荐方法、装置及计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN110222160B (zh)
WO (1) WO2020224097A1 (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560481A (zh) * 2020-12-25 2021-03-26 北京百度网讯科技有限公司 语句处理方法、设备和存储介质
CN113051372A (zh) * 2021-04-12 2021-06-29 平安国际智慧城市科技股份有限公司 材料数据的处理方法、装置、计算机设备和存储介质
CN113420166A (zh) * 2021-03-26 2021-09-21 阿里巴巴新加坡控股有限公司 商品挂载、检索、推荐、训练处理方法、装置及电子设备
CN113515703A (zh) * 2021-07-09 2021-10-19 深圳壹账通智能科技有限公司 信息推荐方法、装置、电子设备及可读存储介质
CN113515599A (zh) * 2021-06-30 2021-10-19 中国电子科技集团公司第十五研究所 一种安置帮教语义分析与方案推荐的方法
CN113869420A (zh) * 2021-09-28 2021-12-31 平安科技(深圳)有限公司 基于对比学习的文本推荐方法及相关设备
CN113901783A (zh) * 2021-11-18 2022-01-07 青岛科技大学 面向领域的文档查重方法及系统
CN114048305A (zh) * 2021-11-05 2022-02-15 山东大学 一种基于图卷积神经网络的行政处罚文书的类案推荐方法
CN114628001A (zh) * 2022-03-16 2022-06-14 平安科技(深圳)有限公司 基于神经网络的处方推荐方法、系统、设备及存储介质
CN115017263A (zh) * 2022-06-07 2022-09-06 平安科技(深圳)有限公司 文章推荐方法、文章推荐装置、电子设备、存储介质
CN116910377A (zh) * 2023-09-14 2023-10-20 长威信息科技发展股份有限公司 一种网格事件分类搜索推荐方法及系统
CN117113987A (zh) * 2023-04-19 2023-11-24 杭州达西信息技术有限公司 一种基于用户行为特征的关键词智能分辨方法及系统
CN117556112A (zh) * 2024-01-11 2024-02-13 中国标准化研究院 电子档案信息智能管理系统
CN117851692A (zh) * 2024-03-07 2024-04-09 深圳市华师兄弟教育科技有限公司 一种基于互联网的网络课程用课件管理系统

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110866042B (zh) * 2019-10-11 2023-05-12 平安科技(深圳)有限公司 表格智能查询方法、装置及计算机可读存储介质
CN110781207A (zh) * 2019-11-01 2020-02-11 安徽大学 一种基于用户画像的专利推荐方法
CN110968800B (zh) * 2019-11-26 2023-05-02 北京明略软件系统有限公司 一种信息推荐方法、装置、电子设备及可读存储介质
CN111143543A (zh) * 2019-12-04 2020-05-12 北京达佳互联信息技术有限公司 一种对象推荐方法、装置、设备及介质
CN111125528B (zh) * 2019-12-24 2023-04-28 腾讯科技(深圳)有限公司 信息推荐方法及装置
CN111241398B (zh) * 2020-01-10 2023-07-25 百度在线网络技术(北京)有限公司 数据预取方法、装置、电子设备及计算机可读存储介质
CN113590927A (zh) * 2020-04-30 2021-11-02 深圳绿米联创科技有限公司 内容推荐方法、装置、服务器及存储介质
CN111831902A (zh) * 2020-05-26 2020-10-27 北京三快在线科技有限公司 推荐理由筛选方法、装置、电子设备
CN112214993B (zh) * 2020-09-03 2024-02-06 拓尔思信息技术股份有限公司 基于图神经网络的文档处理方法、装置和存储介质
CN112242198B (zh) * 2020-09-16 2024-02-02 汕头大学 基于大数据的失语症个性化治疗方案推荐方法及系统
CN112148831B (zh) * 2020-11-26 2021-03-19 广州华多网络科技有限公司 图文混合检索方法、装置、存储介质、计算机设备
CN113076013A (zh) * 2021-04-28 2021-07-06 支付宝(杭州)信息技术有限公司 一种信息生成方法、装置、设备及介质
CN115016873B (zh) * 2022-05-05 2024-07-12 上海乾臻信息科技有限公司 前端数据交互方法、系统、电子设备及可读存储介质
CN115238710B (zh) * 2022-09-22 2022-11-22 北京弘玑信息技术有限公司 一种文档智能生成与管理方法及装置
CN117688251B (zh) * 2024-02-04 2024-04-26 北京奥维云网大数据科技股份有限公司 一种基于知识图谱的商品检索方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140310218A1 (en) * 2013-04-11 2014-10-16 Nec Laboratories America, Inc. High-Order Semi-RBMs and Deep Gated Neural Networks for Feature Interaction Identification and Non-Linear Semantic Indexing
CN104615767A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 搜索排序模型的训练方法、搜索处理方法及装置
CN106156023A (zh) * 2015-03-23 2016-11-23 华为技术有限公司 语义匹配的方法、装置和系统
CN107798624A (zh) * 2017-10-30 2018-03-13 北京航空航天大学 一种软件问答社区中的技术标签推荐方法
CN109165380A (zh) * 2018-07-26 2019-01-08 咪咕数字传媒有限公司 一种神经网络模型训练方法及装置、文本标签确定方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103942279B (zh) * 2014-04-01 2018-07-10 百度(中国)有限公司 搜索结果的展现方法和装置
US20160364783A1 (en) * 2014-06-13 2016-12-15 Truecar, Inc. Systems and methods for vehicle purchase recommendations
CN106776881A (zh) * 2016-11-28 2017-05-31 中国科学院软件研究所 一种基于微博平台的领域信息推荐系统及方法
CN108319627B (zh) * 2017-02-06 2024-05-28 腾讯科技(深圳)有限公司 关键词提取方法以及关键词提取装置
JP6744353B2 (ja) * 2017-04-06 2020-08-19 ネイバー コーポレーションNAVER Corporation ディープラーニングを活用した個人化商品推薦
CN107832468B (zh) * 2017-11-29 2019-05-10 百度在线网络技术(北京)有限公司 需求识别方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140310218A1 (en) * 2013-04-11 2014-10-16 Nec Laboratories America, Inc. High-Order Semi-RBMs and Deep Gated Neural Networks for Feature Interaction Identification and Non-Linear Semantic Indexing
CN104615767A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 搜索排序模型的训练方法、搜索处理方法及装置
CN106156023A (zh) * 2015-03-23 2016-11-23 华为技术有限公司 语义匹配的方法、装置和系统
CN107798624A (zh) * 2017-10-30 2018-03-13 北京航空航天大学 一种软件问答社区中的技术标签推荐方法
CN109165380A (zh) * 2018-07-26 2019-01-08 咪咕数字传媒有限公司 一种神经网络模型训练方法及装置、文本标签确定方法及装置

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560481A (zh) * 2020-12-25 2021-03-26 北京百度网讯科技有限公司 语句处理方法、设备和存储介质
CN112560481B (zh) * 2020-12-25 2024-05-31 北京百度网讯科技有限公司 语句处理方法、设备和存储介质
CN113420166A (zh) * 2021-03-26 2021-09-21 阿里巴巴新加坡控股有限公司 商品挂载、检索、推荐、训练处理方法、装置及电子设备
CN113051372A (zh) * 2021-04-12 2021-06-29 平安国际智慧城市科技股份有限公司 材料数据的处理方法、装置、计算机设备和存储介质
CN113051372B (zh) * 2021-04-12 2024-05-07 平安国际智慧城市科技股份有限公司 材料数据的处理方法、装置、计算机设备和存储介质
CN113515599A (zh) * 2021-06-30 2021-10-19 中国电子科技集团公司第十五研究所 一种安置帮教语义分析与方案推荐的方法
CN113515703A (zh) * 2021-07-09 2021-10-19 深圳壹账通智能科技有限公司 信息推荐方法、装置、电子设备及可读存储介质
CN113869420A (zh) * 2021-09-28 2021-12-31 平安科技(深圳)有限公司 基于对比学习的文本推荐方法及相关设备
CN114048305A (zh) * 2021-11-05 2022-02-15 山东大学 一种基于图卷积神经网络的行政处罚文书的类案推荐方法
CN114048305B (zh) * 2021-11-05 2024-06-07 山东大学 一种基于图卷积神经网络的行政处罚文书的类案推荐方法
CN113901783A (zh) * 2021-11-18 2022-01-07 青岛科技大学 面向领域的文档查重方法及系统
CN114628001A (zh) * 2022-03-16 2022-06-14 平安科技(深圳)有限公司 基于神经网络的处方推荐方法、系统、设备及存储介质
CN115017263A (zh) * 2022-06-07 2022-09-06 平安科技(深圳)有限公司 文章推荐方法、文章推荐装置、电子设备、存储介质
CN115017263B (zh) * 2022-06-07 2024-06-04 平安科技(深圳)有限公司 文章推荐方法、文章推荐装置、电子设备、存储介质
CN117113987A (zh) * 2023-04-19 2023-11-24 杭州达西信息技术有限公司 一种基于用户行为特征的关键词智能分辨方法及系统
CN116910377A (zh) * 2023-09-14 2023-10-20 长威信息科技发展股份有限公司 一种网格事件分类搜索推荐方法及系统
CN116910377B (zh) * 2023-09-14 2023-12-08 长威信息科技发展股份有限公司 一种网格事件分类搜索推荐方法及系统
CN117556112B (zh) * 2024-01-11 2024-04-16 中国标准化研究院 电子档案信息智能管理系统
CN117556112A (zh) * 2024-01-11 2024-02-13 中国标准化研究院 电子档案信息智能管理系统
CN117851692B (zh) * 2024-03-07 2024-05-03 深圳市华师兄弟教育科技有限公司 一种基于互联网的网络课程用课件管理系统
CN117851692A (zh) * 2024-03-07 2024-04-09 深圳市华师兄弟教育科技有限公司 一种基于互联网的网络课程用课件管理系统

Also Published As

Publication number Publication date
CN110222160A (zh) 2019-09-10
CN110222160B (zh) 2023-09-15

Similar Documents

Publication Publication Date Title
WO2020224097A1 (zh) 智能语义文档推荐方法、装置及计算机可读存储介质
CN111753060B (zh) 信息检索方法、装置、设备及计算机可读存储介质
CN106649818B (zh) 应用搜索意图的识别方法、装置、应用搜索方法和服务器
US20230195773A1 (en) Text classification method, apparatus and computer-readable storage medium
WO2020237856A1 (zh) 基于知识图谱的智能问答方法、装置及计算机存储介质
Gao et al. Convolutional neural network based sentiment analysis using Adaboost combination
WO2021051518A1 (zh) 基于神经网络模型的文本数据分类方法、装置及存储介质
CN113591483A (zh) 一种基于序列标注的文档级事件论元抽取方法
CN111291188B (zh) 一种智能信息抽取方法及系统
CN111159485B (zh) 尾实体链接方法、装置、服务器及存储介质
WO2021139107A1 (zh) 情感智能识别方法、装置、电子设备及存储介质
CN113392209B (zh) 一种基于人工智能的文本聚类方法、相关设备及存储介质
CN115438166A (zh) 基于关键词和语义的搜索方法、装置、设备及存储介质
CN112307182B (zh) 一种基于问答系统的伪相关反馈的扩展查询方法
CN112395421B (zh) 课程标签的生成方法、装置、计算机设备及介质
CN112632224B (zh) 基于案例知识图谱的案件推荐方法、装置和电子设备
CN111581368A (zh) 一种基于卷积神经网络的面向智能专家推荐的用户画像方法
US11755668B1 (en) Apparatus and method of performance matching
WO2023242540A1 (en) Methods and systems for transforming and retrieving information from document data using machine learning
Başarslan et al. Sentiment analysis on social media reviews datasets with deep learning approach
CN114417851A (zh) 一种基于关键词加权信息的情感分析方法
Malherbe et al. Bringing order to the job market: Efficient job offer categorization in e-recruitment
Mansour et al. Text vectorization method based on concept mining using clustering techniques
CN114491079A (zh) 知识图谱构建和查询方法、装置、设备和介质
Dabade Sentiment analysis of Twitter data by using deep learning And machine learning

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19927642

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19927642

Country of ref document: EP

Kind code of ref document: A1