WO2020253364A1 - 基于大数据分析的信息推送方法、装置、设备及存储介质 - Google Patents

基于大数据分析的信息推送方法、装置、设备及存储介质 Download PDF

Info

Publication number
WO2020253364A1
WO2020253364A1 PCT/CN2020/086169 CN2020086169W WO2020253364A1 WO 2020253364 A1 WO2020253364 A1 WO 2020253364A1 CN 2020086169 W CN2020086169 W CN 2020086169W WO 2020253364 A1 WO2020253364 A1 WO 2020253364A1
Authority
WO
WIPO (PCT)
Prior art keywords
training
self
big data
network
data analysis
Prior art date
Application number
PCT/CN2020/086169
Other languages
English (en)
French (fr)
Inventor
甘文俊
钱尼丽
Original Assignee
深圳壹账通智能科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳壹账通智能科技有限公司 filed Critical 深圳壹账通智能科技有限公司
Publication of WO2020253364A1 publication Critical patent/WO2020253364A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/958Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking

Definitions

  • This application relates to the technical field of big data analysis, and in particular to an information push method, device, equipment and storage medium based on big data analysis.
  • the main purpose of this application is to provide an information push method, device, equipment, and storage medium based on big data analysis, aiming to solve the inability to quickly and accurately identify valuable information from numerous network data in the prior art, and The technical problem of pushing valuable information to users.
  • this application provides an information push method based on big data analysis, the method includes the following steps:
  • the network data is pushed to the user, so that the user can formulate a service plan that fits the hot spot according to the network data.
  • this application also proposes an information push device based on big data analysis, the device including:
  • the collection module is used to collect the network data released by the self-media account to be monitored in time periods
  • the analysis module is used to analyze the network data in each period by using a pre-built big data analysis model to obtain the rate of change of the hot spots corresponding to the network data;
  • the prediction module is used to predict whether the hotspot has push value according to the change rate and preset information value judgment standards
  • the push module is configured to push the network data to the user when the hotspot has push value, so that the user can formulate a service plan that fits the hotspot according to the network data.
  • this application also proposes an information push device based on big data analysis, the device including: a memory, a processor, and a big data-based device that is stored on the memory and can run on the processor.
  • An information push program for data analysis which is configured to implement the steps of the information push method based on big data analysis as described above.
  • this application also proposes a storage medium that stores an information push program based on big data analysis.
  • the information push program based on big data analysis is executed by a processor, the implementation is as described above. The steps of the information push method based on big data analysis.
  • the information push solution based on big data analysis collects the network data published by the designated self-media account to be monitored by time periods, and analyzes the network data in each time period to determine a certain item published by the self-media account to be monitored.
  • the rate of change of the hotspot corresponding to the network data so that before the content corresponding to the network data becomes a social hotspot, it is possible to prejudge whether the hotspot has push value, and then decide whether to push the network data to the user, so that the user Formulate a business plan that fits the hot spot according to own business requirements and the network data. This not only prevents users from blindly following the trend, but also effectively utilizes this hot spot to promote their own business.
  • the controllability of the network data is realized, thereby greatly reducing the system resources of the equipment for processing the network data.
  • FIG. 1 is a schematic structural diagram of an information push device based on big data analysis in a hardware operating environment involved in a solution of an embodiment of the present application;
  • FIG. 2 is a schematic flowchart of a first embodiment of an information push method based on big data analysis according to this application;
  • FIG. 3 is a schematic flowchart of a second embodiment of an information push method based on big data analysis according to this application;
  • Fig. 4 is a structural block diagram of a first embodiment of an information push device based on big data analysis in this application.
  • FIG. 1 is a schematic structural diagram of an information pushing device based on big data analysis in a hardware operating environment involved in a solution of an embodiment of the application.
  • the information pushing device based on big data analysis may include a processor 1001, such as a central processing unit (CPU), a communication bus 1002, a user interface 1003, a network interface 1004, and a memory 1005.
  • the communication bus 1002 is used to implement connection and communication between these components.
  • the user interface 1003 may include a display screen (Display) and an input unit such as a keyboard (Keyboard), and the optional user interface 1003 may also include a standard wired interface and a wireless interface.
  • the network interface 1004 may optionally include a standard wired interface and a wireless interface (such as a wireless fidelity (WI-FI) interface).
  • WI-FI wireless fidelity
  • the memory 1005 may be a high-speed random access memory (Random Access Memory, RAM) memory, or a stable non-volatile memory (Non-Volatile Memory, NVM), such as a disk memory.
  • RAM Random Access Memory
  • NVM Non-Volatile Memory
  • the memory 1005 may also be a storage device independent of the foregoing processor 1001.
  • FIG. 1 does not constitute a limitation on the information push device based on big data analysis, and may include more or less components than shown in the figure, or combine certain components, or different The layout of the components.
  • the memory 1005 as a storage medium may include an operating system, a network communication module, a user interface module, and an information push program based on big data analysis.
  • the network interface 1004 is mainly used for data communication with a network server; the user interface 1003 is mainly used for data interaction with users; this application is based on big data analysis for information push
  • the processor 1001 and the memory 1005 in the device may be set in an information pushing device based on big data analysis, and the information pushing device based on big data analysis calls the information pushing program based on big data analysis stored in the memory 1005 through the processor 1001 , And execute the information push method based on big data analysis provided in the embodiments of this application.
  • FIG. 2 is a schematic flowchart of a first embodiment of an information pushing method based on big data analysis of this application.
  • the information push method based on big data analysis includes the following steps:
  • Step S10 Collect network data released by the self-media account to be monitored in time intervals.
  • the execution subject of this embodiment is a server, such as a traditional physical server (a server that occupies an actual physical space) or a virtual cloud server.
  • the server needs to establish a communication connection with the self-media platform corresponding to the self-media account to be monitored in advance.
  • we Media also known as “citizen media” or “personal media”. Specifically, it refers to privatized, civilianized, generalized, and autonomous communicators, using modern and electronic means to deliver new media that deliver normative and non-normative information to an unspecified majority or specific individual.
  • the self-media platform is a network platform for dissemination of the normative and non-normative information.
  • the self-media account is a user account provided to users by any of the aforementioned self-media platforms.
  • the self-media accounts to be monitored in this embodiment specifically refer to self-media accounts that meet certain specific conditions.
  • the self-media account to be monitored needs to be determined first.
  • this embodiment provides a specific implementation method for determining the self-media account to be monitored, and the determination process is roughly as follows:
  • the aforementioned network address is specifically the Uniform Resource Locator (URL) of the self-media platform to be monitored.
  • URL Uniform Resource Locator
  • the web crawler used to obtain the network data to be processed may be any one of a large number of web crawlers, such as general web crawlers, focused web crawlers, incremental web crawlers, and deep web crawlers.
  • web crawlers such as general web crawlers, focused web crawlers, incremental web crawlers, and deep web crawlers.
  • Kafka message queues are selected to cache the network data to be processed , Can avoid a large number of network data products to be processed as much as possible, thereby effectively preventing thread blocking.
  • Kafka is an open source stream processing platform developed by the Apache Software Foundation, its usage is relatively mature. Those skilled in the art can find relevant documents and implement it by themselves in specific implementations. I will not repeat them here. .
  • the formulated business plan is an example of a marketing plan required by the enterprise to promote products.
  • the pre-stored historical push information is historical marketing cases related to the products promoted by the enterprise.
  • the aforementioned historical marketing cases are preferably marketing cases with better promotion effects, that is, the historical marketing cases have attracted a large number of users' attention after being promoted, and have achieved the expected effect within a certain period of time.
  • the way to filter the self-media accounts participating in the hotspot it may specifically be to traverse the network data to be processed, and then use the extracted keywords as an index to search and filter in each network data to be processed To filter out the to-be-processed network data containing the keyword. Then, according to the filtered network data to be processed, the self-media account that has published the network data to be processed can be obtained in reverse.
  • two filter conditions are set, one is the number of hotspot participation, and the other is the impact caused. Then compare the two values corresponding to each self-media account selected with the preset thresholds and conditions, so that the self-media account that meets the above two conditions at the same time is used as the self-media account to be monitored, which not only reduces subsequent collections
  • the data volume of the network data also guarantees the hotspot value corresponding to the collected network data.
  • the self-media account to be monitored is a premium account that has passed real-name authentication, is highly active on the self-media platform, and has a large number of fans, which is commonly referred to as a big V account, such as the big V account of Sina Weibo .
  • the preset threshold for the number of hotspot participation can be a probability value, such as 70%, that is, when the number of hotspots obtained from the pre-stored historical marketing cases is 10 times, the number of times the big V account participates in the hotspot needs to be filtered At least 7 times.
  • the pre-set preset condition for causing impact may be that within a certain preset time period, such as 1 hour, the amount of viewed or forwarded network messages about the hotspot published by the self-media account exceeds a certain amount.
  • Numerical value such as 10,000 times.
  • self-media account A the number of hotspots obtained based on the pre-stored historical marketing cases is 10
  • self-media account B the number of hotspots obtained based on the pre-stored historical marketing cases.
  • the number of times of participating in hotspots corresponding to We-Media account A is 5, and the degree of impact is that within 1 hour, the amount of viewed or forwarded network messages about said hotspots has exceeded 10,000 times; corresponding to We-Media Account B
  • the number of times to participate in the hotspot is 8 times, and the degree of impact is that within 1 hour, the amount of viewing or forwarding of the published network messages about the hotspot exceeds 15,000;
  • the degree of impact is that within one hour, the number of views or forwardings of the published network messages about the hotspot exceeded 8 thousand times.
  • self-media account B that is, the final self-media account to be monitored is self-media account B.
  • Step S20 Use a pre-built big data analysis model to analyze the network data in each period to obtain the rate of change of the hot spots corresponding to the network data.
  • the network address mentioned above may not only be the Uniform Resource Locator (URL) of the webpage where the training data to be collected is located, but also the URL of the training data in any big data platform.
  • URL Uniform Resource Locator
  • Database storage addresses are not listed here, and there are no restrictions on this.
  • the training data should be determined historical network data released by the self-media account to be monitored, and the user's attention of the historical network data released Information, such as user forwarding activity, forwarding time, and user characteristic information of historical network data forwarded, is not listed here, and there is no restriction on this.
  • the training data can also be added to the pre-built training Data buffer pool, such as Kafka message queue.
  • the predetermined machine learning algorithm is a convolutional neural network algorithm.
  • the planned learning path can be a supervised learning method or an unsupervised learning method.
  • the predetermined machine learning algorithm is a convolutional neural network algorithm
  • most of the convolution kernels of training models that are currently trained using a convolutional neural network algorithm are 5 ⁇ 5. This leads to insufficient network depth of the training model, which in turn leads to insufficient accuracy of the analysis result of the network data by the big data analysis model obtained by training. Therefore, in order to improve the network depth of the training model, and thereby make the big data analysis model obtained by training the accuracy of the analysis result of the network data, the training model can be rolled up before performing the above step (4).
  • the product core splitting operation splits the 5 ⁇ 5 convolution kernel in the training model into at least two 3 ⁇ 3 convolution kernels, thereby increasing the network depth of the training model.
  • the operation of using the machine learning algorithm to perform iterative training on the training model specifically becomes: using a convolutional neural network algorithm to separately split at least two 3 ⁇ 3 obtained from the training model.
  • the convolution kernel for iterative training is a convolutional neural network algorithm to separately split at least two 3 ⁇ 3 obtained from the training model.
  • the training data can be normalized first to obtain target training data.
  • the operation of constructing a training model based on the learning path and the training data specifically becomes: constructing a training model based on the learning path and the target training data.
  • the above-mentioned learning objective is used to detect whether the training result is greatly close to the real data in the subsequent training process, that is, after the training model completes a certain training, after the training data is input into the training model, the output The training result is close to the learning goal.
  • Step S30 Predict whether the hotspot has push value according to the change rate and the preset information value judgment standard.
  • the information value judgment criteria mentioned here are pre-set. When the change rate meets what conditions, the hotspot corresponding to the current network data will be considered as having push value.
  • the above-mentioned value information judgment standard for judging the rate of change is the marketing value judgment standard.
  • the operation of finally predicting whether the hotspot has push value is to predict whether the hotspot has marketing value.
  • the predicted hot spot has marketing value, it is considered that the network data corresponding to the hot spot has push value.
  • the criteria for determining marketing value and determining whether the hotspot has marketing value are examples:
  • the user forwarding volume of the network data at t1 is n1
  • the user forwarding volume of the network data at t2 is n2
  • the user forwarding volume of the network data at t3 is n3;
  • the established marketing value judgment standard is: tn->tn+1->tn+2 increases by more than 20% at each time point, and the hot spot is considered to have marketing value.
  • Step S40 If it is predicted that the hot spot has push value, push the network data to the user, so that the user can formulate a service plan that fits the hot spot according to the network data.
  • the hotspots with push value mentioned in this embodiment may be hotspots that will generate a high degree of topic in the near future.
  • the operation of pushing the network data to the user after determining that the hotspot has push value is essentially pushing the network data to the user's terminal device, such as a personal computer , Tablet computers, smart phones, etc., here are not listed one by one, and there is no restriction on this.
  • the aforementioned user is not limited to a single natural person in practical applications, but may also be an enterprise or a staff member responsible for a certain business in an enterprise.
  • the user is the marketing staff responsible for product promotion in the enterprise.
  • the server can automatically use the relevant information provided by the user. Generate a business plan that fits the hot spot for the user's reference.
  • this embodiment takes the formulated business plan as a marketing plan as an example for description:
  • the product information of the product to be promoted provided by the user is acquired.
  • a hotspot template is generated according to the hotspot corresponding to the network data.
  • the generated hotspot template can be: official announcement + a heart (symbol) + picture/information addition area;
  • the obtained marketing plan that fits the hot spot is official announcement + a heart (symbol) + product picture/information of the product to be promoted.
  • the generated hotspot template may be: "The name of the product to be promoted" is my XX + picture/information addition area;
  • the obtained marketing plan that fits the hot spot is that the "name of the product to be promoted" is my XX+ product picture/information of the product to be promoted.
  • the information push method based on big data analysis collects the network data published by the designated self-media account to be monitored in time periods, and analyzes the network data in each time period to determine the To monitor the rate of change of the hotspot corresponding to a certain piece of network data published by the media account, it is possible to prejudge whether the hotspot has push value before the content corresponding to the network data becomes a social hotspot, and then decide whether to proceed.
  • "Take advantage of marketing" not only can avoid blindly following the trend, but also can effectively use this hot spot for "borrowed marketing", and then improve the marketing effect.
  • the collected network data comes from the designated self-media account to be monitored, thus achieving controllable network data, thereby greatly reducing the amount of network data used for processing.
  • the system resources of the data device are provided.
  • FIG. 3 is a schematic flowchart of a second embodiment of an information push method based on big data analysis according to this application.
  • the method for pushing information based on big data analysis in this embodiment after the step S40 further includes:
  • Step S50 Publish the business plan to a preset self-media platform.
  • the aforementioned preset self-media platform may be the self-media platform that provides the self-media account to be monitored, or other self-media platforms.
  • those skilled in the art can refer to The cooperative relationship between the product to be promoted and the self-media platform and the scope of popularization of the self-media platform are reasonably selected.
  • the above-mentioned operation of publishing the business plan to a preset self-media platform specifically uses the pre-registered self-media account of the preset self-media platform to perform the business plan publishing operation.
  • Step S60 Obtain the response information of the user of the self-media platform to the service plan.
  • the aforementioned response information may include the number of operations such as forwarding and viewing of the marketing plan by the user of the self-media platform, as well as the user characteristic information and submission of the forwarding group Comment information, etc.
  • Step S70 Adjust the service plan according to the response information.
  • the marketing plan when the marketing plan is adjusted according to the response information, big data analysis technology can be used to analyze the response information and extract the user’s The approved content and the unsatisfactory part of the marketing plan are then rationalized based on the extracted content.
  • the information push method based on big data analysis provided in this embodiment, after the formulated marketing plan that fits the hotspot is released to the preset self-media platform, it obtains the self-media platform Of the user’s response information to the marketing plan, and then adjust the marketing plan based on the response information, so that the marketing plan can be adjusted in real time according to the actual situation, and better fit the marketing hot spots.
  • an embodiment of the present application also proposes a storage medium that stores an information push program based on big data analysis, and when the information push program based on big data analysis is executed by a processor, the above Steps of information push method based on big data analysis.
  • the computer-readable storage medium may be non-volatile or volatile.
  • FIG. 4 is a structural block diagram of a first embodiment of an information push device based on big data analysis in this application.
  • the information pushing device based on big data analysis proposed in the embodiment of the present application includes: an acquisition module 4001, an analysis module 4002, a prediction module 4003, and a pushing module 4004.
  • the collection module 4001 is used to collect the network data released by the self-media account to be monitored in time periods; the analysis module 4002 is used to analyze the network data in each time period using a pre-built big data analysis model to obtain The rate of change of the hotspot corresponding to the network data; the prediction module 4003 is configured to predict whether the hotspot has a push value according to the rate of change and preset information value judgment criteria; the push module 4004 is used to When the hotspot has push value, the network data is pushed to the user, so that the user can formulate a service plan that fits the hotspot according to the network data.
  • the information pushing device based on big data analysis provided in this embodiment further includes a self-media account determination module to be monitored.
  • the self-media account to be monitored determining module is configured to determine the self-media account to be monitored before the collection module 4001 collects the network data released by the self-media account to be monitored in time intervals.
  • the manner of determining the self-media account to be monitored can be roughly implemented as follows:
  • the number of participating hotspots is selected from the respective media accounts to meet the preset threshold, and the self-media accounts that meet the preset conditions are affected, and the filtered self-media accounts are used as the self-media accounts to be monitored.
  • the information pushing device based on big data analysis provided in this embodiment further includes: a big data analysis model building module.
  • the big data analysis model construction module is configured to construct the big data analysis model before the analysis module 4002 uses a pre-built big data analysis model to analyze the network data in each period.
  • the way of building the big data analysis model can be roughly implemented as follows:
  • this embodiment provides a specific machine learning algorithm, specifically a convolutional neural network algorithm.
  • the convolution kernel of the training model constructed according to the learning path and the training data is specifically 5 ⁇ 5.
  • the big data analysis model obtained by the training can more accurately analyze the network data of each period and obtain more accurate analysis results.
  • the training model may be split into the convolution kernel, so as to split the 5 ⁇ 5 convolution kernel in the training model. Divided into at least two 3 ⁇ 3 convolution kernels.
  • the operation of using the machine learning algorithm to perform iterative training on the training model specifically becomes: using a convolutional neural network algorithm to separately split at least two 3 ⁇ 3 obtained from the training model.
  • the convolution kernel for iterative training is a convolutional neural network algorithm to separately split at least two 3 ⁇ 3 obtained from the training model.
  • the training data can also be normalized. Processing to obtain target training data.
  • the operation of constructing a training model based on the learning path and the training data specifically becomes: constructing a training model based on the learning path and the target training data.
  • the pushing module 4004 pushes the network data to the user, it is described in this embodiment to enable the user to formulate a service plan that fits the hot spot based on the network data.
  • the operation can be roughly as follows:
  • the information push device based on big data analysis collects the network data released by the designated self-media account to be monitored by time periods, and analyzes the network data in each time period to determine the To monitor the rate of change of the hotspot corresponding to a certain piece of network data published by the media account, it is possible to prejudge whether the hotspot has push value before the content corresponding to the network data becomes a social hotspot, and then decide whether to add the The network data is pushed to the user, so that the user can formulate a business plan that fits the hot spot according to their own business needs and the network data. This not only prevents users from blindly following the trend, but also effectively utilizes this hot spot to promote their own business.
  • the collected network data comes from the designated self-media account to be monitored, thus achieving controllable network data, thereby greatly reducing the amount of network data used for processing.
  • the system resources of the data device are provided.
  • the information pushing device based on big data analysis further includes a business plan publishing module, a response information acquisition module, and a business plan adjustment module.
  • the business plan publishing module is used to publish the business plan to a preset self-media platform.
  • the response information obtaining module is configured to obtain the response information of the user of the self-media platform to the service plan.
  • the business plan adjustment module is configured to adjust the business plan according to the response information.
  • the information push device based on big data analysis obtaineds the self-media platform after the formulated business plan that fits the hot spot is published to the preset self-media platform
  • the user of the user responds to the business plan, and then adjusts the business plan according to the response information, so that the business plan can be adjusted in real time according to the actual situation and better fit the hot spots.
  • the computer software product is stored in a storage medium (such as Read Only Memory). , ROM)/RAM, magnetic disk, optical disk), including several instructions to make a terminal device (can be a mobile phone, computer, server, or network device, etc.) execute the method described in each embodiment of the present application.
  • the computer-readable storage medium may be non-volatile or volatile.

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种基于大数据分析的信息推送方法、装置、设备及存储介质,属于大数据分析技术领域。该方法包括:分时段采集待监控自媒体账号发布的网络数据(S10);利用预先构建的大数据分析模型对各时段的网络数据进行分析,得到所述网络数据对应的热点的变化率(S20);根据变化率和预设的信息价值判断标准,预测所述热点是否具备推送价值(S30);若预测热点具备推送价值,则将所述网络数据推送给用户,以使所述用户根据所述网络数据制定贴合所述热点的业务方案(S40)。通过上述方式,解决了现有技术中无法快速、准确的从众多网络数据中识别出有价值的信息,并将有价值的信息推送给用户的技术问题。

Description

基于大数据分析的信息推送方法、装置、设备及存储介质
本申请要求于2019年6月19日提交中国专利局、申请号为201910539816.4,发明名称为“基于大数据分析的信息推送方法、装置、设备及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及大数据分析技术领域,尤其涉及一种基于大数据分析的信息推送方法、装置、设备及存储介质。
背景技术
随着大数据时代的到来,网络中每时每刻都会产生大量的网络数据,而如何从这些网络数据中识别出对用户有价值的信息就显得尤为重要。
然而,发明人意识到在实际应用中,对于有价值信息的判断通常是由用户凭借经验和个人情感确定的,因此根本无法从众多的网络数据中快速、精准的识别出有价值的信息,这就使得用户不能及时根据有价值的信息制定合适的业务方案。
所以,亟需提供一种能够从众多网络数据中快速、精准的识别出有价值的信息推送给用户的方法。
上述内容仅用于辅助理解本申请的技术方案,并不代表承认上述内容是现有技术。
发明概述
技术问题
问题的解决方案
技术解决方案
本申请的主要目的在于提供一种基于大数据分析的信息推送方法、装置、设备及存储介质,旨在解决现有技术中无法快速、准确的从众多网络数据中识别出 有价值的信息,并将有价值的信息推送给用户的技术问题。
为实现上述目的,本申请提供了一种基于大数据分析的信息推送方法,所述方法包括以下步骤:
分时段采集待监控自媒体账号发布的网络数据;
利用预先构建的大数据分析模型对各时段的网络数据进行分析,得到所述网络数据对应的热点的变化率;
根据所述变化率和预设的信息价值判断标准,预测所述热点是否具备推送价值;
若预测所述热点具备推送价值,则将所述网络数据推送给用户,以使所述用户根据所述网络数据制定贴合所述热点的业务方案。
此外,为实现上述目的,本申请还提出一种基于大数据分析的信息推送装置,所述装置包括:
采集模块,用于分时段采集待监控自媒体账号发布的网络数据;
分析模块,用于利用预先构建的大数据分析模型对各时段的网络数据进行分析,得到所述网络数据对应的热点的变化率;
预测模块,用于根据所述变化率和预设的信息价值判断标准,预测所述热点是否具备推送价值;
推送模块,用于在所述热点具备推送价值时,将所述网络数据推送给用户,以使所述用户根据所述网络数据制定贴合所述热点的业务方案。
此外,为实现上述目的,本申请还提出一种基于大数据分析的信息推送设备,所述设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于大数据分析的信息推送程序,所述基于大数据分析的信息推送程序配置为实现如上文所述的基于大数据分析的信息推送方法的步骤。
此外,为实现上述目的,本申请还提出一种存储介质,所述存储介质上存储有基于大数据分析的信息推送程序,所述基于大数据分析的信息推送程序被处理器执行时实现如上文所述的基于大数据分析的信息推送方法的步骤。
本申请提供的基于大数据分析的信息推送方案,通过分时段采集指定待监控自媒体账号发布的网络数据,并对各时段的网络数据进行分析,确定所述待监控 自媒体账号发布的某一条网络数据对应的热点的变化率,从而可以在所述网络数据对应的内容成为社会热点之前,预先判断出所述热点是否具备推送价值,进而决定是否将所述网络数据推送给用户,以使用户根据自己的业务需求,以及所述网络数据制定贴合所述热点的业务方案。这样不仅可以避免用户盲目跟风,又可以有效的利用该热点对自己的业务进行推广。
此外,由于本实施例中采集的网络数据是来自指定待监控自媒体账号的,因而实现了网络数据的可控,从而大大减小了用于处理网络数据的设备的系统资源。
发明的有益效果
对附图的简要说明
附图说明
图1是本申请实施例方案涉及的硬件运行环境的基于大数据分析的信息推送设备的结构示意图;
图2为本申请基于大数据分析的信息推送方法第一实施例的流程示意图;
图3为本申请基于大数据分析的信息推送方法第二实施例的流程示意图;
图4为本申请基于大数据分析的信息推送装置第一实施例的结构框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
发明实施例
本发明的实施方式
应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
参照图1,图1为本申请实施例方案涉及的硬件运行环境的基于大数据分析的信息推送设备结构示意图。
如图1所示,该基于大数据分析的信息推送设备可以包括:处理器1001,例如中央处理器(Central Processing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keybo ard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(WIreless-FIdelity,WI-FI)接口)。存储器1005可以是高速的随机存取存储器(Random Access Memory,RAM)存储器,也可以是稳定的非易失性存储器(Non-Volatile Memory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对基于大数据分析的信息推送设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及基于大数据分析的信息推送程序。
在图1所示的基于大数据分析的信息推送设备中,网络接口1004主要用于与网络服务器进行数据通信;用户接口1003主要用于与用户进行数据交互;本申请基于大数据分析的信息推送设备中的处理器1001、存储器1005可以设置在基于大数据分析的信息推送设备中,所述基于大数据分析的信息推送设备通过处理器1001调用存储器1005中存储的基于大数据分析的信息推送程序,并执行本申请实施例提供的基于大数据分析的信息推送方法。
本申请实施例提供了一种基于大数据分析的信息推送方法,参照图2,图2为本申请一种基于大数据分析的信息推送方法第一实施例的流程示意图。
本实施例中,所述基于大数据分析的信息推送方法包括以下步骤:
步骤S10,分时段采集待监控自媒体账号发布的网络数据。
具体的说,本实施例的执行主体为服务器,比如传统的物理服务器(占用实际物理空间的服务器)或者虚拟云服务器。
此外,为了保证本实施例中提供的基于大数据分析的信息推送方法能够顺利执行,所述服务器需要与待监控自媒体账号对应的自媒体平台预先建立通信连接。
应当理解的是,本实施例中所说的自媒体,即通常所说的We Media,又称“公民媒体”或“个人媒体”。具体是指私人化、平民化、普泛化、自主化的传播者, 以现代化、电子化的手段,向不特定的大多数或者特定的单个人传递规范性及非规范性信息的新媒体的总称。
相应地,所述自媒体平台即用于供所述规范性及非规范性信息传播的网络平台。
具体的说,目前,用户使用量较多的自媒体平台主要有:博客、微博、微信、百度官方贴吧、论坛/BBS等网络社区,此处不再一一列举,对此也不做任何限制。
相应地,所述自媒体账号即为上述任意自媒体平台提供给用户使用的用户账号。
此外,值得一提的是,由于自媒体平台的使用门槛低,用户数量庞大,如果对自媒体平台的所有用户账号发布的网络数据都进行监控,显然工作量过于庞大,并且存在大量干扰信息。因而,为了既保证确定的热点具备推送价值,又能够尽可能的缩减服务器需要处理的网络数据。本实施例中所说的待监控自媒体账号具体是指符合某些特定条件的自媒体账号。
也就是说,在执行分时段采集待监控自媒体账号发布的网络数据的操作之前,需要先确定所述待监控自媒体账号。
为了便于理解,本实施例给出一种确定所述待监控自媒体账号的具体实现方式,其确定流程大致如下:
(1)根据业务需要确定待监控的自媒体平台的网络地址。
应当理解的是,上述所说的网络地址,具体是待监控的自媒体平台的统一资源定位符(Uniform Resource Locator,URL)。
(2)根据所述网络地址对网络爬虫进行配置,利用所述网络爬虫从所述网络地址对应的自媒体平台爬取待处理网络数据。
具体的说,在本实施例中,用于获取待处理网络数据的网络爬虫,可以是通用网络爬虫、聚焦网络爬虫、增量式网络爬虫、深层网络爬虫等众多网络爬虫中的任意一种或几种,在具体应用中,本领域的技术人员可以根据需要选取,本申请对此不做任何限制。
此外,值得一提的是,在实际应用中,为了避免获取到的大量待处理网络数据 堆积,导致系统线程阻塞,影响处理效果,在获取到待处理网络数据之后,可以先将所述待处理网络数据添加到预先构建的待处理网络数据缓冲池中,比如Kafka消息队列。
应当理解的是,由于Kafka具有持久化、稳定性、高通吐量、支持服务器和消费集群来分区消息以及支持分布式系统并行数据加载的特性,因此选用Kafka消息队列来缓存所述待处理网络数据,可以尽可能的避免大量待处理网络数据积,从而有效防止了线程阻塞。
此外,由于Kafka是Apache软件基金会开发的一个开源流处理平台,关于它的使用方式已经较为成熟,本领域的技术人员在具体实现中,可以通过查找相关文档,自行实现,此处不再赘述。
(3)利用关键词提取技术,对预存的历史推送信息进行关键词提取,得到所述历史推送信息对应的热点的关键词。
为了便于理解,本实施例中以制定的业务方案为企业推广产品所需的营销方案为例。
相应地,预存的历史推送信息则为与企业推广的产品相关的历史营销案例。
应当理解的是,在实际应用中,上述所说的历史营销案例优选推广效果较佳的营销案例,即所述历史营销案例在推广后,吸引了大量用户关注,在一定时间达到了预期效果。
此外,由于关键词提取技术的使用方式已经较为成熟,本领域的技术人员在具体实现中,可以通过查找相关文档,自行实现,此处不再赘述。
(4)根据所述关键词,对所述待处理网络数据进行过滤,得到至少一个参与所述热点的自媒体账号。
关于过滤参与所述热点的自媒体账号的方式,具体可以是,对所述待处理网络数据进行注意遍历,然后将提取到的关键词作为索引,在每一条待处理网络数据中进行查找、过滤,筛选出包含所述关键词的待处理网络数据。然后,根据筛选出的待处理网络数据逆向获取曾经发布过所述待处理网络数据的自媒体账号即可。
(5)从各自媒体账号中筛选出参与热点次数符合预设阈值,且造成影响符合 预设条件的自媒体账号,将筛选出的自媒体账号作为所述待监控自媒体账号。
具体的说,由于在实际应用中,参与某一热点对应的网络数据的发布操作的自媒体账号往往不止一个,甚至数量众多。因此,如何从大量参与过热点的自媒体账号中筛选出本实施例需要进行数据采集的待监控自媒体账号显得尤为重要。
在本实例中,通过设置两个筛选条件,一个是参与热点次数,另一个是造成的影响。然后将筛选出的各个自媒体账号对应的者两个数值与预设的阈值和条件进行对比,从而将同时满足上述两个条件的自媒体账号作为待监控自媒体账号,不仅减少了后续采集到的网络数据的数据量,也保证了采集到的网络数据对应的热点价值。
为了便于理解,以下进行举例说明:
比如说,需要确定的待监控自媒体账号为经过实名认证,在自媒体平台活跃度较高,且有大量粉丝的高级账号,即通常所说的大V账号,如新浪微博的大V账号。
相应地,预先设置的参与热点次数的阈值可以是一个概率值,比如70%,即在根据预存的历史营销案例得到的热点的数量为10次时,需要筛选出的大V账号参与热点的次数至少为7次。
相应地,预先设置的造成影响的预设条件可以是在某一预设时间段内,如1小时内,该自媒体账号发布的关于所述热点的网络消息被查看量或转发量超过某一数值,如1万次。
在这种情况下(根据预存的历史营销案例得到的热点的数量为10次),如果根据所述关键词,对所述待处理网络数据进行过滤,得到的自媒体账号有3个,为了便于说明,以下称为自媒体账号A、自媒体账号B和自媒体账号C。
其中,自媒体账号A对应的参与热点次数为5次,造成影响程度为1小时内,发布的关于所述热点的网络消息被查看量或转发量超过了1万次;自媒体账号B对应的参与热点次数为8次,造成影响程度为1小时内,发布的关于所述热点的网络消息被查看量或转发量超过了1.5万次;自媒体账号C对应的参与热点次数为7次,造成影响程度为1小时内,发布的关于所述热点的网络消息被查看量或转发 量超过了0.8万次。
通过上述描述不难发现,最终符合条件的自媒体账号只有自媒体账号B,也就是说,最终却的待监控自媒体账号即为自媒体账号B。
应当理解的是,以上仅为举例说明,对本申请的技术方案并不构成任何限定,在具体应用中,本领域的技术人员可以根据需要进行设置,本申请对此不做限制。
步骤S20,利用预先构建的大数据分析模型对各时段的网络数据进行分析,得到所述网络数据对应的热点的变化率。
具体的说,在实际应用中,利用预先构建的大数据分析模型对各时段的网络数据进行分析,得到所述网络数据对应的热点的变化率的操作,实质上就是将采集到的各时段的网络数据作为输入参数,依次输入到所述大数据分析模型的输入层,然后由所述大数据分析模型对输入的网络数据进行自动分析处理,最终便会直接输出对应的热点的变化率。
此外,值得一提的是,在实际应用中,为了保证上述操作的顺利执行,需要先构建所述大数据分析模型。
关于建所述大数据分析模型的方式,大致可以按照如下流程实现:
(1)接收数据采集指令,从所述数据采集指令中提取待采集的训练数据的网络地址。
应当理解的是,上述所说的网络地址,除了可以是待采集的训练数据所在的网页的统一资源定位符(Uniform Resource Locator,URL),还可以是任意大数据平台中,所述训练数据的数据库存储地址,此处不再一一列举,对此也不做任何限制。
此外,值得一提的是,为了保证后续分析获得的热点的变化率的精确度,所述训练数据应当是确定的待监控自媒体账号发布的历史网络数据,以及发布的历史网络数据的用户关注信息,如用户转发活跃度、转发时间、转发所历史网络数据的用户特征信息等,此处不再一一列举,对此也不做任何限制。
(2)根据所述网络地址对网络爬虫进行配置,利用所述网络爬虫从所述网络地址对应的网页中获取所述训练数据。
关于所述网络爬虫的选取,可以参考上述确定所述待监控自媒体账号中网络爬虫的选取过程,此处不再赘述。
此外,值得一提的是,在实际应用中,为了避免大量训练数据堆积,导致系统线程阻塞,影响处理效果,在获取到训练数据之后,同样可以先将所述训练数据添加到预先构建的训练数据缓冲池中,比如Kafka消息队列。
关于Kafka的使用,同样可以参考上述确定所述待监控自媒体账号给出的方案以及现有关于Kafka的相关文档自行实现,此处不再赘述。
(3)根据所述训练数据和预先确定的机器学习算法,规划学习路径。
具体的说,在本实施例中,预先确定的机器学习算法为卷积神经网络算法。
相应地,规划的学习路径,可以是有监督学习方式和无监督学习方式。
关于上述所说的有监督学习方式和无监督学习方式,在具体实现过程中,本领域的技术人员可以查看相关文档,自行实现,此处不再赘述。
(4)根据所述学习路径和所述训练数据,构建训练模型。
具体的说,由于预先确定的机器学习算法为卷积神经网络算法,而目前采用卷积神经网络算法进行训练的训练模型的卷积核大多为5×5的。这就导致训练模型的网络深度不足,进而导致训练获得的大数据分析模型对所述网络数据的分析结果的精确度不够。因此,为了提升训练模型的网络深度,进而使得训练获得的大数据分析模型的对所述网络数据的分析结果的精确度,在执行上述步骤(4)之前,可以先对所述训练模型进行卷积核拆分操作,将所述训练模型中5×5的卷积核拆分为至少两个3×3的卷积核,从而增加训练模型的网络深度。
相应地,所述采用所述机器学习算法,对所述训练模型进行迭代训练的操作具体变为:采用卷积神经网络算法,分别对所述训练模型中拆分获得的至少两个 3×3的卷积核进行迭代训练。
此外,在实际应用中,为了提升训练获得的大数据分析模型的泛化能力(机器学习算法对新鲜样本的适应能力),在根据所述学习路径和所述训练数据,构建训练模型之前,还可以先对所述训练数据进行归一化处理,从而得到目标训练数据。
相应地,所述根据所述学习路径和所述训练数据,构建训练模型的操作具体变为:根据所述学习路径和所述目标训练数据,构建训练模型。
(5)根据预设的大数据分析模型对应的业务需求,确定学习目标。
具体的说,上述所说的学习目标,在后续训练过程中,是用于检测训练结果是否极大地逼近真实数据,即训练模型在完成某一次训练后,在将训练数据输入训练模型后,输出的训练结果与所述学习目标接近。
(6)采用所述机器学习算法,对所述训练模型进行迭代训练。
(7)在训练得到的训练结果与所述学习目标的匹配度大于预设阈值时,确定得到所述大数据分析模型。
应当理解的是,以上给出的仅为一种构建大数据分析模型的具体方式,对本申请的技术方案并不构成任何限定,在具体应用中,本领域的技术人员可以根据需要进行设置,本申请对此不做限制。
步骤S30,根据所述变化率和预设的信息价值判断标准,预测所述热点是否具备推送价值。
具体的说,这里所说的信息价值判断标准,即为预先设定的,在变化率符合什么条件时,会认为当前网络数据对应的热点具备推送价值。
仍以最终制定的业务方案为营销方案为例,则上述用于判断变化率的价值信息判断标准即为营销价值判断标准。
相应地,最终预测所述热点是否具备推送价值的操作,即为预测所述热点是否具备营销价值。
也就是说,在产品营销的应用场景中,如果预测的所述热点具备营销价值,则认为所述热点对应的网络数据具备推送价值。
为了便于理解,营销价值判断标准以及确定热点是否具备营销价值,以下进行举例说明:
比如说,在连续时间tn过程中,t1时刻所述网络数据的用户转发量为n1,t2时刻所述网络数据的用户转发量为n2,t3时刻所述网络数据的用户转发量为n3;设定的营销价值判断标准为:tn->tn+1->tn+2每个时间点递增超过20%,则认为所述热点具备营销价值。
应当理解的是,以上仅为举例说明,对本申请的技术方案并不构成任何限定,在具体应用中,本领域的技术人员可以根据需要进行设置,本申请对此不做限制。
步骤S40,若预测所述热点具备推送价值,则将所述网络数据推送给用户,以使所述用户根据所述网络数据制定贴合所述热点的业务方案。
具体的说,本实施例中所说具备推送价值的热点可以是近期将会产生很高话题度的热点。
此外,本实施例中所说的,在确定所述热点具备推送价值,将所述网络数据推送给用户的操作,实质是将所述网络数据推送到所述用户的终端设备上,比如个人计算机、平板电脑、智能手机等,此处不再一一列举,对此也不做限制。
此外,应当理解的是,上述所说的用户,在实际应用中并不局限于单独的自然人,也可以是企业,或者企业中负责某项业务的工作人员。
仍以最终制定的业务方案为营销方案为例,则所述用户即为企业中负责产品推广工作的营销人员。
此外,值得一提的是,在实际应用中,为了能够更好的辅助用户制定合适的业务方案,在将所述网络数据推送给所述用户之后,可以由服务器根据用户提供的相关信息,自动生成一个贴合所述热点的业务方案,以供所述用户参考。
为了便于理解上述所说的根据所述网络数据制定贴合所述热点的业务方案的操作,本实施例以制定的业务方案为营销方案为例进行说明:
首先,在将所述网络数据推送给所述用户(具体为负责产品推广的营销人员)之后,监测所述用户是否触发了业务方案生成指令(具体为营销方案生成指令)。
相应地,若监测到所述用户触发了业务方案生成指令,则获取所述用户提供的待推广产品的产品信息。
然后,根据所述网络数据对应的热点,生成热点模板。
最后,将所述产品信息输入到所述热点模板的指定位置,得到贴合所述热点的业务方案。
为了便于理解,以下进行举例说明:
比如说,在所述网络数据的格式为:官宣+一颗心(符号)+某一明星的照片,则生成的热点模板可以是:官宣+一颗心(符号)+图片/信息添加区域;
相应地,得到的贴合所述热点的营销方案,即为官宣+一颗心(符号)+所述待推广产品的产品图片/信息。
还比如说,在所述网络数据的格式为:XX是我的XX,则生成的热点模板可以是:“待推广产品名称”是我的XX+图片/信息添加区域;
相应地,得到的贴合所述热点的营销方案,即为“待推广产品名称”是我的XX+所述待推广产品的产品图片/信息。
应当理解的是,上述“XX”,在实际应用中只需贴合为与所述待推广产品相关的内容即可,此处不做限制。
此外,应当理解的是,以上仅为举例说明,对本申请的技术方案并不构成任何限定,在具体应用中,本领域的技术人员可以根据需要进行设置,本申请对此不做限制。
通过上述描述不难发现,本实施例中提供的基于大数据分析的信息推送方法,通过分时段采集指定待监控自媒体账号发布的网络数据,并对各时段的网络数据进行分析,确定所述待监控自媒体账号发布的某一条网络数据对应的热点的变化率,从而可以在所述网络数据对应的内容成为社会热点之前,预先判断出所述热点是否具备推送价值,进而决定是否要进行“借势营销”,这样不仅可以避免盲目跟风,又可以有效的利用该热点进行“借势营销”,进而提升营销效果。
此外,在本实施例提供的基于大数据分析的信息推送方法中,采集的网络数据是来自指定待监控自媒体账号的,因而实现了网络数据的可控,从而大大减小了用于处理网络数据的设备的系统资源。
参考图3,图3为本申请一种基于大数据分析的信息推送方法第二实施例的流程示意图。
基于上述第一实施例,本实施例基于大数据分析的信息推送方法在所述步骤S40之后,还包括:
步骤S50,将所述业务方案发布到预设的自媒体平台。
具体的说,上述所说的预设的自媒体平台,可以是提供所述待监控自媒体账号的自媒体平台,也可以是其他自媒体平台,在实际应用中,本领域的技术人员可以根据待推广产品与自媒体平台的合作关系以及自媒体平台的普及范围合理选取。
相应地,上述所说的将所述业务方案发布到预设的自媒体平台的操作,具体是利用预先注册的所述预设自媒体平台的自媒体账号进行业务方案发布操作的。
步骤S60,获取所述自媒体平台的用户对所述业务方案的响应信息。
仍以制定的业务方案为营销方案为例,上述所说的响应信息可以包括所述自媒体平台的用户对所述营销方案的转发、查看等操作的次数,以及转发人群的用户特征信息、提交的评论信息等。
步骤S70,根据所述响应信息,对所述业务方案进行调整。
仍以制定的业务方案为营销方案为例,在根据所述响应信息,对所述营销方案进行调整时,具体可以利用大数据分析技术,对所述响应信息进行分析,提取出用户对所述营销方案的认可内容以及不满意部分,然后根据提取出的内容,对所述营销方案进行合理。
通过上述描述不难发现,本实施例中提供的基于大数据分析的信息推送方法,在制定的贴合所述热点的营销方案发布到预设的自媒体平台后,通过获取所述自媒体平台的用户对所述营销方案的响应信息,然后根据所述响应信息,对所述营销方案进行调整,使得营销方案能够根据实际情况进行实时调整,更好的贴合营销热点。
此外,本申请实施例还提出一种存储介质,所述存储介质上存储有基于大数据分析的信息推送程序,所述基于大数据分析的信息推送程序被处理器执行时实现如上文所述的基于大数据分析的信息推送方法的步骤。所述计算机可读存储 介质可以是非易失性,也可以是易失性。
参照图4,图4为本申请基于大数据分析的信息推送装置第一实施例的结构框图。
如图4所示,本申请实施例提出的基于大数据分析的信息推送装置包括:采集模块4001、分析模块4002、预测模块4003和推送模块4004。
其中,所述采集模块4001,用于分时段采集待监控自媒体账号发布的网络数据;所述分析模块4002,用于利用预先构建的大数据分析模型对各时段的网络数据进行分析,得到所述网络数据对应的热点的变化率;所述预测模块4003,用于根据所述变化率和预设的信息价值判断标准,预测所述热点是否具备推送价值;所述推送模块4004,用于在所述热点具备推送价值时,将所述网络数据推送给用户,以使所述用户根据所述网络数据制定贴合所述热点的业务方案。
此外,值得一提的是,为了保证待监控自媒体账号发布的网络数据为具备推送价值的信息。因此,本实施例提供的基于大数据分析的信息推送装置还包括:待监控自媒体账号确定模块。
相应地,所述待监控自媒体账号确定模块,用于在所述采集模块4001分时段采集待监控自媒体账号发布的网络数据之前,确定所述待监控自媒体账号。
关于所述待监控自媒体账号确定模块,确定所述待监控自媒体账号的方式,大致可以按照如下流程实现:
首先,根据业务需要确定待监控的自媒体平台的网络地址;
然后,根据所述网络地址对网络爬虫进行配置,利用所述网络爬虫从所述网络地址对应的自媒体平台爬取待处理网络数据;
接着,利用关键词提取技术,对预存的历史推送信息进行关键词提取,得到所述历史推送信息对应的热点的关键词;
接着,根据所述关键词,对所述待处理网络数据进行过滤,得到至少一个参与所述热点的自媒体账号;
最后,从各自媒体账号中筛选出参与热点次数符合预设阈值,且造成影响符合预设条件的自媒体账号,将筛选出的自媒体账号作为所述待监控自媒体账号。
应当理解的是,以上给出的仅为一种确定待监控自媒体账号的具体方式,对本 申请的技术方案并不构成任何限定,在具体应用中,本领域的技术人员可以根据需要进行设置,本申请对此不做限制。
此外,应当理解的是,在实际应用中,为了保证所述分析模块4002能够顺利的执行分析操作。本实施例提供的基于大数据分析的信息推送装置还包括:大数据分析模型构建模块。
相应地,所述大数据分析模型构建模块,用于在所述分析模块4002利用预先构建的大数据分析模型对各时段的网络数据进行分析之前,构建所述大数据分析模型。
关于所述大数据分析模型构建模块,构建所述大数据分析模型的方式,大致可以按照如下流程实现:
首先,接收数据采集指令,从所述数据采集指令中提取待采集的训练数据的网络地址;
然后,根据所述网络地址对网络爬虫进行配置,利用所述网络爬虫从所述网络地址对应的网页中获取所述训练数据;
接着,根据所述训练数据和预先确定的机器学习算法,规划学习路径;
接着,根据所述学习路径和所述训练数据,构建训练模型;
接着,根据预设的大数据分析模型对应的业务需求,确定学习目标;
接着,采用所述机器学习算法,对所述训练模型进行迭代训练;
最后,在训练得到的训练结果与所述学习目标的匹配度大于预设阈值时,确定得到所述大数据分析模型。
为了便于理解,本实施例给出一种具体的机器学习算法,具体为卷积神经网络算法。
相应地,在根据所述学习路径和所述训练数据构建的训练模型的卷积核具体为5×5的。
因此,为了提升训练模型的网络深度,使得训练获得的大数据分析模型能够更加精准的对各时段的网络数据进行分析,得到更加精准的分析结果。在采用所述卷积神经网络算法,对所述训练模型进行迭代训练之前,可以先对所述训练 模型进行卷积核拆分操作,从而将所述训练模型中5×5的卷积核拆分为至少两个3×3的卷积核。
相应地,所述采用所述机器学习算法,对所述训练模型进行迭代训练的操作具体变为:采用卷积神经网络算法,分别对所述训练模型中拆分获得的至少两个3×3的卷积核进行迭代训练。
此外,在实际应用中,为了提升训练获得的大数据分析模型的泛化能力,在根据所述学习路径和所述训练数据,构建训练模型之前,还可以先对所述训练数据进行归一化处理,从而得到目标训练数据。
相应地,所述根据所述学习路径和所述训练数据,构建训练模型的操作具体变为:根据所述学习路径和所述目标训练数据,构建训练模型。
应当理解的是,以上给出的仅为一种构建大数据分析模型的具体方式,对本申请的技术方案并不构成任何限定,在具体应用中,本领域的技术人员可以根据需要进行设置,本申请对此不做限制。
此外,值得一提的是,所述推送模块4004在将所述网络数据推送给用户之后,本实施例中所说的以使所述用户根据所述网络数据制定贴合所述热点的业务方案的操作,大致可以如下:
首先,监测所述用户是否触发了业务方案生成指令;
相应地,若监测到所述用户触发了业务方案生成指令,则获取所述用户提供的待推广产品的产品信息;
然后,根据所述网络数据对应的热点,生成热点模板;
最后,将所述产品信息输入到所述热点模板的指定位置,得到贴合所述热点的业务方案。
应当理解的是,以上给出的仅为一种制定贴合所述热点的营销方案的具体方式 ,对本申请的技术方案并不构成任何限定,在具体应用中,本领域的技术人员可以根据需要进行设置,本申请对此不做限制。
通过上述描述不难发现,本实施例中提供的基于大数据分析的信息推送装置,通过分时段采集指定待监控自媒体账号发布的网络数据,并对各时段的网络数据进行分析,确定所述待监控自媒体账号发布的某一条网络数据对应的热点的变化率,从而可以在所述网络数据对应的内容成为社会热点之前,预先判断出所述热点是否具备推送价值,进而决定是否将所述网络数据推送给用户,以使用户根据自己的业务需求,以及所述网络数据制定贴合所述热点的业务方案。这样不仅可以避免用户盲目跟风,又可以有效的利用该热点对自己的业务进行推广。
此外,在本实施例提供的基于大数据分析的信息推送装置中,采集的网络数据是来自指定待监控自媒体账号的,因而实现了网络数据的可控,从而大大减小了用于处理网络数据的设备的系统资源。
需要说明的是,以上所描述的工作流程仅仅是示意性的,并不对本申请的保护范围构成限定,在实际应用中,本领域的技术人员可以根据实际的需要选择其中的部分或者全部来实现本实施例方案的目的,此处不做限制。
另外,未在本实施例中详尽描述的技术细节,可参见本申请任意实施例所提供的基于大数据分析的信息推送方法,此处不再赘述。
基于上述基于大数据分析的信息推送装置的第一实施例,提出本申请基于大数据分析的信息推送装置第二实施例。
在本实施例中,所述基于大数据分析的信息推送装置还包括业务方案发布模块、响应信息获取模块和业务方案调整模块。
其中,所述业务方案发布模块,用于将所述业务方案发布到预设的自媒体平台。
所述响应信息获取模块,用于获取所述自媒体平台的用户对所述业务方案的响应信息。
所述业务方案调整模块,用于根据所述响应信息,对所述业务方案进行调整。
应当理解的是,以上仅为举例说明,对本申请的技术方案并不构成任何限定, 在具体应用中,本领域的技术人员可以根据需要进行设置,本申请对此不做限制。
通过上述描述不难发现,本实施例中提供的基于大数据分析的信息推送装置,在制定的贴合所述热点的业务方案发布到预设的自媒体平台后,通过获取所述自媒体平台的用户对所述业务方案的响应信息,然后根据所述响应信息,对所述业务方案进行调整,使得业务方案能够根据实际情况进行实时调整,更好的贴合热点。
需要说明的是,以上所描述的工作流程仅仅是示意性的,并不对本申请的保护范围构成限定,在实际应用中,本领域的技术人员可以根据实际的需要选择其中的部分或者全部来实现本实施例方案的目的,此处不做限制。
另外,未在本实施例中详尽描述的技术细节,可参见本申请任意实施例所提供的基于大数据分析的信息推送方法,此处不再赘述。
此外,需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如只读存储器(Read Only Memory,ROM)/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。所述计算机可读存储介质可以是非易失性,也可以是易失性。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本 申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (20)

  1. 一种基于大数据分析的信息推送方法,其中,所述方法包括:
    分时段采集待监控自媒体账号发布的网络数据;
    利用预先构建的大数据分析模型对各时段的网络数据进行分析,得到所述网络数据对应的热点的变化率;
    根据所述变化率和预设的信息价值判断标准,预测所述热点是否具备推送价值;
    若预测所述热点具备推送价值,则将所述网络数据推送给用户,以使所述用户根据所述网络数据制定贴合所述热点的业务方案。
  2. 如权利要求1所述的方法,其中,所述分时段采集待监控自媒体账号发布的网络数据的步骤之前,所述方法还包括:
    确定所述待监控自媒体账号;
    其中,所述确定所述待监控自媒体账号的步骤,包括:
    根据业务需要确定待监控的自媒体平台的网络地址;
    根据所述网络地址对网络爬虫进行配置,利用所述网络爬虫从所述网络地址对应的自媒体平台爬取待处理网络数据;
    利用关键词提取技术,对预存的历史推送信息进行关键词提取,得到所述历史推送信息对应的热点的关键词;
    根据所述关键词,对所述待处理网络数据进行过滤,得到至少一个参与所述热点的自媒体账号;
    从各自媒体账号中筛选出参与热点次数符合预设阈值,且造成影响符合预设条件的自媒体账号,将筛选出的自媒体账号作为所述待监控自媒体账号。
  3. 如权利要求1所述的方法,其中,所述利用预先构建的大数据分析模型对各时段的网络数据进行分析的步骤之前,所述方法还包括:
    构建所述大数据分析模型;
    其中,所述构建所述大数据分析模型的步骤,包括:
    接收数据采集指令,从所述数据采集指令中提取待采集的训练数据的网络地址;
    根据所述网络地址对网络爬虫进行配置,利用所述网络爬虫从所述网络地址对应的网页中获取所述训练数据;
    根据所述训练数据和预先确定的机器学习算法,规划学习路径;
    根据所述学习路径和所述训练数据,构建训练模型;
    根据预设的大数据分析模型对应的业务需求,确定学习目标;
    采用所述机器学习算法,对所述训练模型进行迭代训练;
    在训练得到的训练结果与所述学习目标的匹配度大于预设阈值时,确定得到所述大数据分析模型。
  4. 如权利要求3所述的方法,其中,所述机器学习算法为卷积神经网络算法,所述训练模型的卷积核为
    5×5
    所述采用所述机器学习算法,对所述训练模型进行迭代训练的步骤之前,所述方法还包括:
    对所述训练模型进行卷积核拆分操作,将所述训练模型中
    5×5
    的卷积核拆分为至少两个
    3×3
    的卷积核;
    其中,所述采用所述机器学习算法,对所述训练模型进行迭代训练的步骤,包括:
    采用卷积神经网络算法,分别对所述训练模型中拆分获得的至少两个
    3×3
    的卷积核进行迭代训练。
  5. 如权利要求3所述的方法,其中,所述根据所述学习路径和所述训练数据,构建训练模型的步骤之前,所述方法还包括:
    对所述训练数据进行归一化处理,得到目标训练数据;
    其中,所述根据所述学习路径和所述训练数据,构建训练模型的步骤,包括:
    根据所述学习路径和所述目标训练数据,构建训练模型。
  6. 如权利要求1至5任一项所述的方法,其中,所述以使所述用户根据所述网络数据制定贴合所述热点的业务方案的步骤,包括:
    监测所述用户是否触发了业务方案生成指令;
    若监测到所述用户触发了业务方案生成指令,则获取所述用户提供的待推广产品的产品信息;
    根据所述网络数据对应的热点,生成热点模板;
    将所述产品信息输入到所述热点模板的指定位置,得到贴合所述热点的业务方案。
  7. 如权利要求6所述的方法,其中,所述得到贴合所述热点的业务方案的步骤之后,所述方法还包括:
    将所述业务方案发布到预设的自媒体平台;
    获取所述自媒体平台的用户对所述业务方案的响应信息;
    根据所述响应信息,对所述业务方案进行调整。
  8. 一种基于大数据分析的信息推送设备,其中,所述设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于大数据分析的信息推送程序,所述基于大数据分析的信息推送程序配置为被处理器执行实现如下步骤:
    分时段采集待监控自媒体账号发布的网络数据;
    利用预先构建的大数据分析模型对各时段的网络数据进行分析,得到所述网络数据对应的热点的变化率;
    根据所述变化率和预设的信息价值判断标准,预测所述热点是否具备推送价值;
    若预测所述热点具备推送价值,则将所述网络数据推送给用户,以使所述用户根据所述网络数据制定贴合所述热点的业务方案。
  9. 如权利要求8所述的基于大数据分析的信息推送设备,其中,所述分时段采集待监控自媒体账号发布的网络数据的步骤之前,所述处理器还执行实现:
    确定所述待监控自媒体账号;
    其中,所述确定所述待监控自媒体账号的步骤,包括:
    根据业务需要确定待监控的自媒体平台的网络地址;
    根据所述网络地址对网络爬虫进行配置,利用所述网络爬虫从所述网络地址对应的自媒体平台爬取待处理网络数据;
    利用关键词提取技术,对预存的历史推送信息进行关键词提取,得到所述历史推送信息对应的热点的关键词;
    根据所述关键词,对所述待处理网络数据进行过滤,得到至少一个参与所述热点的自媒体账号;
    从各自媒体账号中筛选出参与热点次数符合预设阈值,且造成影响符合预设条件的自媒体账号,将筛选出的自媒体账号作为所述待监控自媒体账号。
  10. 如权利要求8所述的基于大数据分析的信息推送设备,其中,所述利用预先构建的大数据分析模型对各时段的网络数据进行分析的步骤之前,所述处理器还执行:
    构建所述大数据分析模型;
    其中,所述构建所述大数据分析模型的步骤,包括:
    接收数据采集指令,从所述数据采集指令中提取待采集的训练数据的网络地址;
    根据所述网络地址对网络爬虫进行配置,利用所述网络爬虫从所述网络地址对应的网页中获取所述训练数据;
    根据所述训练数据和预先确定的机器学习算法,规划学习路径;
    根据所述学习路径和所述训练数据,构建训练模型;
    根据预设的大数据分析模型对应的业务需求,确定学习目标;
    采用所述机器学习算法,对所述训练模型进行迭代训练;
    在训练得到的训练结果与所述学习目标的匹配度大于预设阈值时,确定得到所述大数据分析模型。
  11. 如权利要求10所述的基于大数据分析的信息推送设备,其中,所述机器学习算法为卷积神经网络算法,所述训练模型的卷积核为5×5
    所述采用所述机器学习算法,对所述训练模型进行迭代训练的步骤之前,所述处理器还执行:
    对所述训练模型进行卷积核拆分操作,将所述训练模型中
    5×5
    的卷积核拆分为至少两个
    3×3
    的卷积核;
    其中,所述采用所述机器学习算法,所述处理器执行实现对所述训练模型进行迭代训练的步骤,包括:
    采用卷积神经网络算法,分别对所述训练模型中拆分获得的至少两个
    3×3
    的卷积核进行迭代训练。
  12. 如权利要求10所述的基于大数据分析的信息推送设备,其中,所述根据所述学习路径和所述训练数据,构建训练模型的步骤之前,所述处理器还执行:
    对所述训练数据进行归一化处理,得到目标训练数据;
    其中,所述处理器执行实现所述根据所述学习路径和所述训练数据,构建训练模型的步骤,包括:
    根据所述学习路径和所述目标训练数据,构建训练模型。
  13. 如权利要求8至12任一项所述的基于大数据分析的信息推送设备,其中,所述处理器执行实现所述以使所述用户根据所述网络数据制定贴合所述热点的业务方案的步骤,包括:
    监测所述用户是否触发了业务方案生成指令;
    若监测到所述用户触发了业务方案生成指令,则获取所述用户提供的待推广产品的产品信息;
    根据所述网络数据对应的热点,生成热点模板;
    将所述产品信息输入到所述热点模板的指定位置,得到贴合所述热点的业务方案。
  14. 如权利要求13所述的基于大数据分析的信息推送设备,其中,所述得到贴合所述热点的业务方案的步骤之后,所述处理器还执行:
    将所述业务方案发布到预设的自媒体平台;
    获取所述自媒体平台的用户对所述业务方案的响应信息;
    根据所述响应信息,对所述业务方案进行调整。
  15. 一种存储介质,其中,所述存储介质上存储有基于大数据分析的信息推送程序,所述基于大数据分析的信息推送程序被处理器执行时实现如下步骤:
    分时段采集待监控自媒体账号发布的网络数据;
    利用预先构建的大数据分析模型对各时段的网络数据进行分析,得到所述网络数据对应的热点的变化率;
    根据所述变化率和预设的信息价值判断标准,预测所述热点是否具备推送价值;
    若预测所述热点具备推送价值,则将所述网络数据推送给用户,以使所述用户根据所述网络数据制定贴合所述热点的业务方案。
  16. 如权利要求15所述的存储介质,其中,所述分时段采集待监控自媒体账号发布的网络数据的步骤之前,所述基于大数据分析的信 息推送程序还被处理器执行实现:
    确定所述待监控自媒体账号;
    其中,所述确定所述待监控自媒体账号的步骤,包括:
    根据业务需要确定待监控的自媒体平台的网络地址;
    根据所述网络地址对网络爬虫进行配置,利用所述网络爬虫从所述网络地址对应的自媒体平台爬取待处理网络数据;
    利用关键词提取技术,对预存的历史推送信息进行关键词提取,得到所述历史推送信息对应的热点的关键词;
    根据所述关键词,对所述待处理网络数据进行过滤,得到至少一个参与所述热点的自媒体账号;
    从各自媒体账号中筛选出参与热点次数符合预设阈值,且造成影响符合预设条件的自媒体账号,将筛选出的自媒体账号作为所述待监控自媒体账号。
  17. 如权利要求15所述的存储介质,其中,所述利用预先构建的大数据分析模型对各时段的网络数据进行分析的步骤之前,所述基于大数据分析的信息推送程序还被处理器执行实现:
    构建所述大数据分析模型;
    其中,所述构建所述大数据分析模型的步骤,包括:
    接收数据采集指令,从所述数据采集指令中提取待采集的训练数据的网络地址;
    根据所述网络地址对网络爬虫进行配置,利用所述网络爬虫从所述网络地址对应的网页中获取所述训练数据;
    根据所述训练数据和预先确定的机器学习算法,规划学习路径;
    根据所述学习路径和所述训练数据,构建训练模型;
    根据预设的大数据分析模型对应的业务需求,确定学习目标;
    采用所述机器学习算法,对所述训练模型进行迭代训练;
    在训练得到的训练结果与所述学习目标的匹配度大于预设阈值时,确定得到所述大数据分析模型。
  18. 如权利要求17所述的存储介质,其中,所述机器学习算法为卷积神经网络算法,所述训练模型的卷积核为
    5×5
    所述采用所述机器学习算法,对所述训练模型进行迭代训练的步骤之前,所述基于大数据分析的信息推送程序还被处理器执行实现:
    对所述训练模型进行卷积核拆分操作,将所述训练模型中
    5×5
    的卷积核拆分为至少两个
    3×3
    的卷积核;
    其中,所述基于大数据分析的信息推送程序被处理器执行实现所述采用所述机器学习算法,对所述训练模型进行迭代训练的步骤,包括:
    采用卷积神经网络算法,分别对所述训练模型中拆分获得的至少两个
    3×3
    的卷积核进行迭代训练。
  19. 如权利要求17所述的存储介质,其中,所述根据所述学习路径和所述训练数据,构建训练模型的步骤之前,所述基于大数据分析的信息推送程序还被处理器执行实现:
    对所述训练数据进行归一化处理,得到目标训练数据;
    其中,所述根据所述学习路径和所述训练数据,构建训练模型的步骤,包括:
    根据所述学习路径和所述目标训练数据,构建训练模型。
  20. 如权利要求15至19任一项所述的存储介质,其中,所述基于大数 据分析的信息推送程序被处理器执行实现所述以使所述用户根据所述网络数据制定贴合所述热点的业务方案的步骤,包括:
    监测所述用户是否触发了业务方案生成指令;
    若监测到所述用户触发了业务方案生成指令,则获取所述用户提供的待推广产品的产品信息;
    根据所述网络数据对应的热点,生成热点模板;
    将所述产品信息输入到所述热点模板的指定位置,得到贴合所述热点的业务方案。
PCT/CN2020/086169 2019-06-19 2020-04-22 基于大数据分析的信息推送方法、装置、设备及存储介质 WO2020253364A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910539816.4 2019-06-19
CN201910539816.4A CN110362728A (zh) 2019-06-19 2019-06-19 基于大数据分析的信息推送方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
WO2020253364A1 true WO2020253364A1 (zh) 2020-12-24

Family

ID=68216543

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/086169 WO2020253364A1 (zh) 2019-06-19 2020-04-22 基于大数据分析的信息推送方法、装置、设备及存储介质

Country Status (2)

Country Link
CN (1) CN110362728A (zh)
WO (1) WO2020253364A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110362728A (zh) * 2019-06-19 2019-10-22 深圳壹账通智能科技有限公司 基于大数据分析的信息推送方法、装置、设备及存储介质
CN110852792B (zh) * 2019-10-28 2023-10-03 海南太美航空股份有限公司 一种基于大数据分析的航线价值评估方法及相关产品
CN112749324B (zh) * 2019-10-31 2024-03-12 北京达佳互联信息技术有限公司 网络媒介信息投放控制方法、装置、电子设备及存储介质
CN111177552A (zh) * 2019-12-27 2020-05-19 绍兴市上虞区理工高等研究院 一种基于用户需求的科技成果推送方法及装置
CN114897176B (zh) * 2022-03-11 2023-11-07 内蒙古塞上明珠科技成果推广服务有限公司 一种基于人工智能的互联网大数据处理系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010076780A1 (en) * 2009-01-01 2010-07-08 Orca Interactive Ltd. Adaptive blending of recommendation engines
CN106909637A (zh) * 2017-02-14 2017-06-30 国家计算机网络与信息安全管理中心 微信公众号的影响力分析方法和系统
CN109191183A (zh) * 2018-08-10 2019-01-11 宜人恒业科技发展(北京)有限公司 一种基于大数据的广告投放动态调整系统
CN109670104A (zh) * 2018-11-12 2019-04-23 深圳壹账通智能科技有限公司 基于机器学习的信息推送方法、设备、装置及存储介质
CN109711872A (zh) * 2018-12-14 2019-05-03 中国平安人寿保险股份有限公司 基于大数据分析的广告投放方法及装置
CN110362728A (zh) * 2019-06-19 2019-10-22 深圳壹账通智能科技有限公司 基于大数据分析的信息推送方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010076780A1 (en) * 2009-01-01 2010-07-08 Orca Interactive Ltd. Adaptive blending of recommendation engines
CN106909637A (zh) * 2017-02-14 2017-06-30 国家计算机网络与信息安全管理中心 微信公众号的影响力分析方法和系统
CN109191183A (zh) * 2018-08-10 2019-01-11 宜人恒业科技发展(北京)有限公司 一种基于大数据的广告投放动态调整系统
CN109670104A (zh) * 2018-11-12 2019-04-23 深圳壹账通智能科技有限公司 基于机器学习的信息推送方法、设备、装置及存储介质
CN109711872A (zh) * 2018-12-14 2019-05-03 中国平安人寿保险股份有限公司 基于大数据分析的广告投放方法及装置
CN110362728A (zh) * 2019-06-19 2019-10-22 深圳壹账通智能科技有限公司 基于大数据分析的信息推送方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110362728A (zh) 2019-10-22

Similar Documents

Publication Publication Date Title
WO2020253364A1 (zh) 基于大数据分析的信息推送方法、装置、设备及存储介质
Zhou et al. A survey of information cascade analysis: Models, predictions, and recent advances
US10841323B2 (en) Detecting robotic internet activity across domains utilizing one-class and domain adaptation machine-learning models
Nguyen et al. Real-time event detection for online behavioral analysis of big social data
US11375030B2 (en) Future event detection and notification
US20160307131A1 (en) Method, apparatus, and system for controlling delivery task in social networking platform
Tatar et al. A survey on predicting the popularity of web content
US8631122B2 (en) Determining demographics based on user interaction
KR101961711B1 (ko) 온라인 소셜 네트워크 내 네트워크-인지 제품 시판
KR101923067B1 (ko) 네이티브 애플리케이션 테스트
US11544633B2 (en) Method for cleaning up background application, storage medium, and electronic device
US9584565B1 (en) Methods for generating notifications in a shared workspace
US20170063606A1 (en) Event Notifications for Applications
CN108629010B (zh) 一种基于主题和服务组合信息的web服务推荐方法
CN111885399A (zh) 内容分发方法、装置、电子设备以及存储介质
CN110929145A (zh) 舆情分析方法、装置、计算机装置及存储介质
US10516644B2 (en) Near real time relevance ranker for notifications
KR20150067897A (ko) 소셜 데이터의 인기도 예측 장치 및 방법
US20170046376A1 (en) Method and system for monitoring data quality and dependency
JP2021523492A (ja) 検索動作出力要素のアクションインジケータ
WO2020258773A1 (zh) 确定推送用户群的方法、装置、设备及存储介质
US9582586B2 (en) Massive rule-based classification engine
CN113015010A (zh) 推送参数确定方法、装置、设备及计算机可读存储介质
Hu et al. Predicting key events in the popularity evolution of online information
KR102390937B1 (ko) 네트워크 활용 최적화

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20827005

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20827005

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 29/03/2022)

122 Ep: pct application non-entry in european phase

Ref document number: 20827005

Country of ref document: EP

Kind code of ref document: A1