JP7245478B1 - CONTENT GENERATION METHOD, CONTENT PROVISION METHOD, AND THEREOF PROGRAM - Google Patents

CONTENT GENERATION METHOD, CONTENT PROVISION METHOD, AND THEREOF PROGRAM Download PDF

Info

Publication number
JP7245478B1
JP7245478B1 JP2021160290A JP2021160290A JP7245478B1 JP 7245478 B1 JP7245478 B1 JP 7245478B1 JP 2021160290 A JP2021160290 A JP 2021160290A JP 2021160290 A JP2021160290 A JP 2021160290A JP 7245478 B1 JP7245478 B1 JP 7245478B1
Authority
JP
Japan
Prior art keywords
content
model
type
trained
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021160290A
Other languages
Japanese (ja)
Other versions
JP2023050264A (en
Inventor
真也 石川
正太郎 船井
Original Assignee
株式会社人々
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社人々 filed Critical 株式会社人々
Priority to JP2021160290A priority Critical patent/JP7245478B1/en
Application granted granted Critical
Publication of JP7245478B1 publication Critical patent/JP7245478B1/en
Publication of JP2023050264A publication Critical patent/JP2023050264A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】自動的にコンバージョンレート(CVR)の高い配布用コンテンツをAIに作成させ、特定したターゲット消費者に提供させる。【解決手段】タスク学習データで機械学習を実行した、訓練済みのGPTモデルによって基礎コンテンツを生成する基礎コンテンツ生成ステップと、前記タスク学習データで機械学習を実行した、訓練済みのBERTモデルによって前記基礎コンテンツにおける単語をランダムに隠して代わりの候補を挙げるように前記基礎コンテンツの推敲を行う推敲ステップと、CVRを予測するニューラルネットワークで前記CVRを高める前記候補のみを残して、前記推敲ステップにフィードバックするフィードバックステップと、前記推敲ステップと前記フィードバックステップを繰り返して、CVRの上昇が収束したコンテンツを配布用コンテンツとして生成する配布用コンテンツ生成ステップと、をコンピューターに実行させる。【選択図】図1An object of the present invention is to have AI automatically create content for distribution with a high conversion rate (CVR) and provide it to specified target consumers. A basic content generation step of generating basic content by a trained GPT model that has performed machine learning on task learning data; and a trained BERT model that has performed machine learning on the task learning data. An elaboration step of elaborating the base content to randomly hide words in the content and provide alternative candidates, and feed back to the elaboration step, leaving only the candidates that increase the CVR in a neural network that predicts CVR. causing a computer to execute a feedback step; and a content-for-distribution generation step of repeating the elaboration step and the feedback step to generate, as content-for-distribution, content whose CVR has converged. [Selection drawing] Fig. 1

Description

本発明は、コンテンツ生成方法、コンテンツ提供方法及びそのプログラムに関し、特にマーケティングの目的に合致するコンテンツ生成方法、コンテンツ提供方法及びそのプログラムに関する。 The present invention relates to a content generation method, a content provision method and a program thereof, and more particularly to a content generation method, a content provision method and a program thereof that meet the purpose of marketing.

情報爆発の時代となった今では、人々が一日に物事に注意を向ける時間は限界に達したことに起因して、情報過多の社会において人々の「関心や注目の獲得(アテンションの獲得)」が経済的価値を持つという説もある。そのように、経済が消費経済から情報経済へ移行するのと同時に、消費者のアテンションが貴重な資源へと変容しており、アテンションは通貨のような存在になりつつある。それに対し、商品やサービスに関する文章やプッシュ通知等の広告案を作成する場合、消費者に提供する情報の優劣よりも注目を集めること自体が重要視されている。 In today's information explosion era, the amount of time people can pay attention to things in a day has reached its limit. ” has economic value. As such, as the economy moves from a consumption economy to an information economy, consumer attention is transforming into a valuable resource, and attention is becoming something like currency. On the other hand, when drafting advertisements such as texts and push notifications related to products and services, attention is paid to itself rather than the superiority or inferiority of the information provided to consumers.

なお、膨大な情報の中で消費者の関心を掴み続けていくのは簡単ではなく、特に伝統的な文章やプッシュ通知等の広告案の作成は、人間が提案・遂行することが殆どであるため、目まぐるしい情報環境に対して素早く対応することは難しい。それに対し、特許文献1には、深層ニューラルネットワークモデルコンポーネントが過去の製品説明情報及び製品説明情報の範例コンテンツに応じた訓練によって、製品説明情報に対応したコンテンツをAIで生成する技術が開示されている。それによって、ターゲット製品の配布用コンテンツを迅速に生成することが可能になったため、変化が激しい情報環境に対しても、新しいコンテンツを素早く提供することができる。しかしながら、製品に関わる新しいコンテンツをAIで素早く提供するだけでは、あくまでも消費者に素早く新製品の販売を知らせるに過ぎないと、本願の発明者らは感じた。具体的に言えば、過去の製品説明情報及び製品説明情報の範例コンテンツに応じた訓練を行っても、製品そのものに注目したコンテンツが生成されるだけになりがちである。即ち、大量な配布用コンテンツを生成できるが、消費者の関心から離れたコンテンツが生成される可能性も低くないため、CPA高騰の原因の1つとなる恐れもある。 It should be noted that it is not easy to continue to grasp the interest of consumers in the vast amount of information, especially the creation of advertising proposals such as traditional sentences and push notifications, which are mostly proposed and carried out by humans. Therefore, it is difficult to respond quickly to a dizzying information environment. On the other hand, Patent Literature 1 discloses a technique in which a deep neural network model component trains according to past product description information and example content of product description information to generate content corresponding to product description information with AI. there is As a result, it has become possible to quickly generate distribution contents for target products, so new contents can be quickly provided even in rapidly changing information environments. However, the inventors of the present application felt that simply providing new product-related content quickly with AI would only quickly notify consumers of new product sales. Specifically, even if training is performed according to past product description information and example content of the product description information, content that focuses on the product itself tends to be generated. In other words, although a large amount of content for distribution can be generated, there is a high possibility that content that is not of interest to consumers will be generated.

また、特許文献2には、キーワード及び画像でAIが自動作成した配布用画像を広告掲示点にアップロードして、その画像が当該広告掲示点での評価によって配布用画像を選ぶ技術が開示される。しかしながら、広告掲示点での評価ではまばらなものであり、それによる選択の効率が低いと共に、結果が参考になる価値は安定ではない。さらに、それは配布用画像の数を収斂することであるため、大量なコンテンツから消費者に比較的に関心を持つものを選ばれるかもしれないが、何度でも同じ作業を繰り返すのに手間もかかるし、さらに全体的にコンテンツの質も変わらないため、訪問者のCVRを本質的に上げることができない。 Further, Patent Document 2 discloses a technique of uploading an image for distribution automatically created by AI with keywords and images to an advertisement bulletin board point, and selecting the image for distribution based on the evaluation of the image at the advertisement bulletin board point. . However, the evaluation at the advertisement bulletin board point is sparse, so the efficiency of selection is low, and the value of the result is not stable. In addition, since it is to converge the number of images for distribution, it may be possible to select items that are relatively interesting to consumers from a large amount of content, but it takes time and effort to repeat the same work over and over again. However, since the quality of the content remains the same overall, the visitor's CVR cannot be substantially increased.

国際出願公開WO2019/133545号明細書International Application Publication No. WO2019/133545 台湾特許公開TW201918960A号明細書Taiwan Patent Publication No. TW201918960A

本発明が解決しようとする課題は、コンバージョンレート(CVR)が高く、文章が自然な配布用コンテンツをAIに自動で作成させ、特定したターゲット消費者に提供させる、コンテンツ生成方法、コンテンツ提供方法及びそのプログラムを提供することである。 The problem to be solved by the present invention is a content generation method, a content provision method, and a method for automatically creating distribution content with a high conversion rate (CVR) and natural sentences by AI and providing it to specified target consumers. provide that program.

1つの実施形態によるコンテンツ生成方法は、訴求情報を取得する取得ステップと、タスク学習データで機械学習を実行した訓練済みのGPTモデルによって、前記訴求情報に基づいて基礎コンテンツを生成する基礎コンテンツ生成ステップと、タスク学習データで機械学習を実行した訓練済みのBERTモデルによって前記基礎コンテンツにおける単語をランダムに隠して代わりの候補を挙げるように前記基礎コンテンツの推敲を行う推敲ステップと、タスク予測学習データによって訓練した訓練済みのNN(ニューラルネットワーク)モデルで前記推敲ステップによる推敲した文章のコンバージョンレートを予測し、前記コンバージョンレートを高める前記候補のみを残して、前記推敲ステップにフィードバックするフィードバックステップと、前記推敲ステップと前記フィードバックステップを繰り返して、コンバージョンレートの上昇が収束したコンテンツを配布用コンテンツとして生成する配布用コンテンツ生成ステップと、をコンピューターに実行させる。 A content generation method according to one embodiment includes an acquisition step of acquiring appeal information, and a basic content generation step of generating basic content based on the appeal information by a trained GPT model that has performed machine learning on task learning data. and an elaboration step of elaborating the basic content so as to randomly hide words in the basic content and give alternative candidates by a trained BERT model that has performed machine learning on task learning data; a feedback step of predicting a conversion rate of the text elaborated by the elaboration step with a trained NN (neural network) model trained, leaving only the candidates that increase the conversion rate, and providing feedback to the elaboration step; The step and the feedback step are repeated to cause a computer to execute a content-for-distribution generation step of generating content for which the increase in conversion rate has converged as content for distribution.

1つの実施形態によるコンテンツ提供方法は、コンテンツのタイプを予測する訓練済みのNNモデルによって、配布用コンテンツのタイプを予測して、前述配布用コンテンツと予測されたタイプを対応付けるステップと、ターゲット対象に対してコンバージョンしやすいコンテンツのタイプを予測する訓練済みのNNモデルによって、タスクとなるターゲット対象に対してコンバージョンしやすいコンテンツのタイプを予測して、前述ターゲット対象と予測されたタイプを対応付けるステップと、前記対応付けたタイプに応じて、前記配布用コンテンツを対応的に前記ターゲット対象に提供するステップと、をコンピューターに実行させる。 A method for providing content according to one embodiment includes steps of predicting a type of content for distribution by a trained neural network model for predicting the type of content, and associating the content for distribution with the predicted type; Predicting the type of content that is likely to convert to the target target, which is a task, by a trained NN model that predicts the type of content that is likely to be converted, and associating the target target with the predicted type; Correspondingly providing the distribution content to the target according to the associated type.

1つの実施形態によるプログラムは、訴求情報を取得し、タスク学習データで機械学習を実行した訓練済みのGPTモデルによって、前記訴求情報に基づいて基礎コンテンツを生成し、タスク学習データで機械学習を実行した訓練済みのBERTモデルによって前記基礎コンテンツにおける単語をランダムに隠して代わりの候補を挙げるように前記基礎コンテンツの推敲を行い、タスク予測学習データによって訓練した訓練済みのNN(ニューラルネットワーク)モデルによって前記BERTモデルで推敲した文章のコンバージョンレートを予測し、該文章の前記コンバージョンレートを高める前記候補のみを残して、前記BERTモデルの推敲にフィードバックし、前記BERTモデルの推敲とNNモデルのフィードバックステップを繰り返して、コンバージョンレートの上昇が収束したコンテンツを配布用コンテンツとして生成する、処理をコンピューターに実行させる。 A program according to one embodiment obtains appeal information, generates basic content based on the appeal information by a trained GPT model that has performed machine learning on task learning data, and performs machine learning on task learning data. The basic content is refined by randomly hiding words in the basic content by a trained BERT model and providing alternative candidates, and a trained NN (neural network) model trained by task prediction learning data is used. Predicting the conversion rate of the sentence refined by the BERT model, leaving only the candidates that increase the conversion rate of the sentence, feeding back the BERT model refinement, and repeating the BERT model refinement and the NN model feedback step. Then, the computer executes a process of generating the content for which the increase in the conversion rate has converged as the content for distribution.

1つの実施形態によるプログラムは、コンテンツのタイプを予測する訓練済みのNNモデルによって、前述のプログラムで生成した配布用コンテンツのタイプを予測して、前述配布用コンテンツと予測されたタイプを対応付けて、ターゲット対象に対してコンバージョンしやすいコンテンツのタイプを予測する訓練済みのNNモデルによって、タスクとなるターゲット対象に対してコンバージョンしやすいコンテンツのタイプを予測して、前述ターゲット対象と予測されたタイプを対応付けて、前記対応付けたタイプに応じて、前記配布用コンテンツを対応的に前記ターゲット対象に提供する、処理をコンピューターに実行させる。 A program according to one embodiment predicts the type of content for distribution generated by the aforementioned program by a trained NN model for predicting the type of content, and associates the content for distribution with the predicted type. , using a trained NN model that predicts the type of content that is likely to convert to the target, predicts the type of content that is likely to convert to the target, which is the task, and predicts the type predicted as the target A computer is caused to execute a process of associating and correspondingly providing the distribution content to the target according to the associated type.

上記の本発明の実施形態によれば、コンバージョンレート(CVR)の高い、自然な文章の配布用コンテンツをAIに自動で作成させると共に、AIで決定したCVしやすい対象に、AIで決定したタイミングで出力することができる。 According to the above-described embodiment of the present invention, AI automatically creates content for distribution of natural sentences with a high conversion rate (CVR), and at the timing determined by AI for the target that is easy to CV determined by AI can be output with

本発明の実施形態に係るコンテンツ生成方法の例示的フローのフローチャートである。4 is a flow chart of an exemplary flow of a content generation method according to an embodiment of the present invention; 本発明の実施形態に係るコンテンツ生成方法に使用される、GPTモデルに基礎コンテンツを生成させるイメージである。4 is an image of a GPT model generating basic content, which is used in the content generation method according to the embodiment of the present invention; 本発明の実施形態に係るコンテンツ生成方法に使用されるBERTモデルに推敲コンテンツを生成させるイメージである。4 is an image of a BERT model used in a content generation method according to an embodiment of the present invention to generate refined content; 本発明の実施形態に係るコンテンツ生成方法に使用される、NNモデルの一般的なアーキテクチャの説明図である。1 is an illustration of the general architecture of a NN model used in a content generation method according to an embodiment of the invention; FIG. 本発明の実施形態の学習データに含まれる、過去のシナリオデータの一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of past scenario data included in learning data according to the embodiment of this invention; 本発明の実施形態の学習データに含まれる、クライアントから提供された訴求情報の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of appeal information provided by a client, which is included in learning data according to the embodiment of this invention; 本発明の実施形態の学習データに含まれる、訴求情報をインターネット検索して得た文章の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of sentences obtained by searching the Internet for appealing information included in learning data according to the embodiment of the present invention; 本発明の実施形態のNNモデルに使用されるタスク予測学習データの実施形態を説明するための図である。FIG. 4 is a diagram for explaining an embodiment of task prediction learning data used in the NN model of the embodiment of the present invention; FIG. 本発明の実施形態のコンテンツ生成方法を利用して、クライアントから依頼があってから、全サービスの流れを説明するための図である。FIG. 4 is a diagram for explaining the flow of all services after receiving a request from a client using the content generation method of the embodiment of the present invention; 本発明の実施形態に係るコンテンツ提供方法の例示的フローのフローチャートである。4 is a flow chart of an exemplary flow of a method for providing content according to an embodiment of the present invention; 本発明の実施形態に係るコンテンツ提供方法に使用される、ファインチューニング済タイプ予測NNモデル及びファインチューニング済ユーザー予測NNモデルの一般的なアーキテクチャの説明図である。Fig. 2 is an illustration of the general architecture of a fine-tuned type predictive NN model and a fine-tuned user predictive NN model used in the content provision method according to an embodiment of the present invention; 本発明の実施形態に係るファインチューニング済タイプ予測NNモデル及びファインチューニング済ユーザー予測NNモデルに使用される文章タイプタスク予測学習データ及びユーザータイプタスク予測学習データを含む学習データの実施形態を説明するための図である。To illustrate embodiments of learning data including sentence-type task prediction learning data and user-type task prediction learning data used in fine-tuned type prediction NN models and fine-tuned user prediction NN models according to embodiments of the present invention; is a diagram. 本発明の実施形態に係る配布用コンテンツを提供する全サービスの流れを説明するための図である。FIG. 2 is a diagram for explaining the flow of all services for providing distribution content according to an embodiment of the present invention; 本発明の実施形態におけるコンテンツ生成方法、及びコンテンツ提供方法を実現し得るハードウェア構成の構造図である。1 is a structural diagram of a hardware configuration that can implement a content generation method and a content provision method according to an embodiment of the present invention; FIG.

下記より、具体的な実施例で本発明が開示する「コンテンツ生成方法、コンテンツ提供方法、及びそのプログラム」に係る実施形態を説明する。当業者は本明細書の公開内容により本発明のメリット及び効果を理解し得る。本発明は他の異なる実施形態により実行又は応用できる。本明細書における各細節も様々な応用に基づいて、本発明の趣旨を逸脱しない限り、変更を行うことができる。また、本発明の図面は簡単で模式的に説明するためのものであり、実際的な寸法を示すものではない。以下の実施形態において、さらに本発明に係る技術事項を説明するが、公開された内容は本発明を限定するものではない。 Embodiments relating to the "content generating method, content providing method, and program therefor" disclosed by the present invention will be described below with specific examples. Those skilled in the art can understand the advantages and effects of the present invention from the disclosure of this specification. The invention may be practiced or applied with other different embodiments. Each detail in this specification can also be changed based on various applications without departing from the spirit of the invention. Also, the drawings of the present invention are for simple and schematic illustration and do not show actual dimensions. In the following embodiments, technical matters related to the present invention will be further described, but the disclosed contents do not limit the present invention.

他に定義されない限り、本明細書で使用されるすべての技術用語および科学用語は、本発明が属する技術分野の当業者によって一般に理解されるのと同じ意味を有する。本明細書で使用される技術用語は、特に個数を指定されない限り、複数形を含むことが意図されている。 Unless defined otherwise, all technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Technical terms used herein are intended to include the plural unless otherwise specified.

以下、添付した図面を参照しながら、本発明を実施するための好適な実施例を詳細に説明する。なお、このような実施例は、例示に過ぎず、本発明を限定するものでない。 Preferred embodiments for carrying out the present invention will now be described in detail with reference to the accompanying drawings. It should be noted that such an embodiment is merely an example and does not limit the present invention.

本発明の一側面によれば、コンテンツ生成方法が提供される。以下、図1を参照しながら、本発明の実施例におけるコンテンツ生成方法の例示的なフローを説明する。 According to one aspect of the present invention, a content generation method is provided. An exemplary flow of a content generation method in an embodiment of the present invention will now be described with reference to FIG.

図1は、本発明の実施形態に係るコンテンツ生成方法の例示的フローのフローチャートである。図1に示すように、コンテンツ生成方法の例示的フロー100は、以下のステップを含んでも良い。 FIG. 1 is a flowchart of an exemplary flow of a content generation method according to an embodiment of the invention. As shown in FIG. 1, an exemplary content generation method flow 100 may include the following steps.

ステップS101:タスク学習データによって、事前学習済GPTモデル及び事前学習済BERTモデルのファインチューニングを行う;
ステップS103:タスク予測学習データによって、コンバージョンレートを予測するための事前学習済NN(ニューラルネットワーク)モデルのファインチューニングを行う;
ステップS105:タスク学習データの文章から抽出した書き出しをファインチューニング済GPTモデルに与えて、文章を生成させる;
ステップS107:ステップS105で生成した文章を、ファインチューニング済BERTモデルに入力して分散表現を取り出し、ステップS105で抽出する前のタスク学習データの文章の分散表現とのコサイン類似度が高いものを基礎コンテンツ(基礎文章)として抽出する;
ステップS109:ステップS107で抽出した基礎文章をファインチューニング済BERTモデルに入力し単語をランダムに隠し代わりの候補を挙げて推敲文章を生成する;
ステップS111:ファインチューニング済NNモデルによって、ステップS109に生成した推敲文章のコンバージョンレートを予測して、コンバージョンレートが上昇する推敲コンテンツ(推敲文章)の候補のみを残して、その候補を新たな基礎文章と見做してファインチューニング済BERTモデルにフィードバックする;
ステップS113:ステップS111において、推敲文章のコンバージョンレートの上昇が収束したかを判断し、コンバージョンレートの上昇が収束したと判断する場合、ステップS115に移行し、コンバージョンレートの上昇が収束していないと判断する場合、ステップS109に戻す。
ステップS115:推敲文章を配布用コンテンツ(配布用文章)として出力する。
Step S101: fine-tuning the pre-trained GPT model and the pre-trained BERT model according to the task learning data;
Step S103: Fine-tuning a pre-trained NN (neural network) model for predicting conversion rate according to the task prediction learning data;
Step S105: Giving the fine-tuned GPT model the transcripts extracted from the sentences of the task learning data to generate sentences;
Step S107: The sentence generated in step S105 is input to the fine-tuned BERT model to extract the distributed representation, and the sentence having a high cosine similarity with the distributed representation of the sentence of the task learning data before extraction in step S105 is used as the basis. Extract as content (basic sentences);
Step S109: Input the basic sentences extracted in step S107 into the fine-tuned BERT model, hide words at random, and list alternative candidates to generate revised sentences;
Step S111: Predict the conversion rate of the elaboration sentences generated in step S109 by the fine-tuned NN model, leave only candidates for elaboration contents (elaboration sentences) whose conversion rate rises , and use those candidates as new basic sentences. and feedback to the fine-tuned BERT model;
Step S113: In step S111, it is determined whether the increase in the conversion rate of the revised text has converged. If it is determined that the increase in the conversion rate has converged, the process proceeds to step S115. When judging, it returns to step S109.
Step S115: Output the revised text as distribution contents (distribution text).

このフロー100において、各細部、例えば、タスク学習データ及びタスク予測学習データの詳細については後述の説明で例を挙げて説明するが、タスク学習データ及びタスク予測学習データを使用する際、例えば、BERTモデルを利用する場合、タスク学習データはベクトルのシーケンスに転換してから利用する等、使用される機械学習モデルに応じて形式を変換させることは当業者にとって言うまでもないため、その変換手法は既存の変換手法に従って行わればよく、本明細書ではその関連説明を省略する。 In this flow 100, each detail, such as details of task learning data and task prediction learning data, will be described later with examples. When using a model, it is obvious for those skilled in the art to convert the format according to the machine learning model used, such as converting the task learning data to a sequence of vectors before using it. It may be performed according to the method, and the related description is omitted in this specification.

近年、ディープラーニングの自然言語処理分野の研究が盛んに行われており、そのうち、BERTモデル及びGPTモデルは広く利用されている。GPTモデルは事前学習したモデルに対して、ファインチューニングといわれる既存のモデルのパラメータの微調整及び追加学習を行い、新しいモデルを再構築することなく高い精度で予測を行う。特に長文の生成では、GPTモデルは人間によって書かれたものと判断されるような自然な文章を作成することが可能である。しかし、GPTモデルで生成する文章は過去の情報を元に単語を並べ、文法的にそれらしい文章を作っているにすぎないため、長い文章を生成すると、同じ意味の単語を繰り返したり、結論が矛盾した文章を生成したりしてしまうことがある。一方、BERTモデルは、Transformerを用いた双方向型の事前学習を可能にしたことで、高精度で文脈理解をした表現を獲得することができる。即ち、本願によるコンテンツ生成方法では、自動的に配布用文章を作成するために、文章の続きを書くのが得意なGPTモデルに加えて、文章の書き換え(穴埋め)が得意なBERTモデルを利用することで、自動的に人間が作成したような自然な文章が作られる。 In recent years, research in the field of natural language processing of deep learning has been actively conducted, and among them, the BERT model and the GPT model are widely used. The GPT model performs fine tuning of parameters of an existing model and additional learning, called fine tuning, on a pre-learned model, and makes highly accurate predictions without reconstructing a new model. Especially for the generation of long sentences, the GPT model can produce sentences that are natural enough to be judged as written by humans. However, since the sentences generated by the GPT model simply arrange words based on past information and create grammatically appropriate sentences, when generating long sentences, words with the same meaning may be repeated or conclusions may not be reached. It may produce contradictory sentences. On the other hand, the BERT model enables interactive pre-training using Transformer, so that highly accurate and contextually understood expressions can be obtained. That is, in the content generation method according to the present application, the BERT model, which is good at rewriting (filling in blanks) of sentences, is used in addition to the GPT model, which is good at writing the continuation of sentences, in order to automatically create sentences for distribution. As a result, natural sentences are automatically created as if they were created by a human being.

そして、人間が作成したような自然な文章のみではなく、例えば、CVRの増加、CPAの削減またはLTVの伸び等のマーケティングに関わる目標を達する配布用文章をAIに作成させるために、本発明に係るコンテンツ生成方法には、コンバージョンレートを予測するNNモデルをさらに利用する。詳しくは、コンバージョンレートを予測する事前学習済NNモデルに、予測する文章のBERT分散表現を入力して、コンバージョンレート(値は0と1の間)を出力する。出力されたコンバージョンレートが上昇する場合、当該文章に使われる候補をBERTモデルにフィードバックする。 Then, in order to make AI create not only natural sentences like those created by humans, but also sentences for distribution that achieve marketing-related goals such as increasing CVR, reducing CPA, or increasing LTV, the present invention can be used. Such a content generation method further utilizes a neural network model for predicting conversion rates. Specifically, the BERT distributed representation of the sentence to be predicted is input to a pretrained NN model that predicts the conversion rate, and the conversion rate (value between 0 and 1) is output. If the output conversion rate increases, we feed back the candidates used for that sentence to the BERT model.

そのようにして、コンバージョンレートの上昇が収束するまで、コンバージョンレートの高い文章をBERTモデルに作らせることができる。なお、ここで利用されたNNモデルには、コンバージョンレートを予測できる限り、例えば順伝播型ニューラルネットワーク(FFNN)、畳み込みニューラルネットワーク(CNN)、リカレントニューラルネットワーク(RNN)等既存のニューラルネットワークのいずれを利用しても構わない。 In that way, the BERT model can be made to produce high conversion rate sentences until the conversion rate increase converges. As long as the NN model used here can predict the conversion rate, any existing neural network such as a forward propagation neural network (FFNN), a convolutional neural network (CNN), a recurrent neural network (RNN), etc. You can use it.

続いて、図2から図4に基づいて、図1に示す例示的な方法に応用される、GPTモデル、BERTモデル及びNNモデルのファインチューニング及び仕組みの実例をより具体的に説明する。 Subsequently, based on FIGS. 2 to 4, more specific examples of fine-tuning and mechanics of the GPT model, BERT model and NN model applied to the exemplary method shown in FIG. 1 will be described.

まず、図2を参照する。図2は、図1に示すコンテンツ生成方法に使用される、GPTモデルに基礎文章を生成させるイメージである。本実施形態において、最初に使われるGPTモデルは、GPTの事前学習モデルとして、Huggingface Transformersにアップロードされている、ckiplab/gpt2-base-chineseを使用したが、使用する事前学習モデルは生成する言語に応じて変更し得て、本発明はこの例に制限されない。なお、本実施形態において、事前学習済GPTモデルは、コンテンツ生成方法を実行する時点の前にファインチューニングを実行したものであってもよい。例えば、ファインチューニングには、先月訓練したGPTモデルを使用してもよい。即ち、本発明のコンテンツ生成方法において、事前学習済GPTモデルとファインチューニング済GPTモデルとの取り分けは、今回のコンテンツ生成方法が開始する時点で、新しいタスク学習データによってファインチューニングを行ったかに応じて決定する。 First, refer to FIG. FIG. 2 is an image of generating basic sentences in the GPT model, which is used in the content generation method shown in FIG. In this embodiment, the first GPT model used is ckiplab/gpt2-base-chinese uploaded to Huggingface Transformers as a GPT pre-learning model. The invention is not limited to this example, as it may vary accordingly. In this embodiment, the pre-trained GPT model may be fine-tuned before executing the content generation method. For example, fine-tuning may use a GPT model that was trained last month. That is, in the content generation method of the present invention, the pre-trained GPT model and the fine-tuned GPT model are divided depending on whether or not fine-tuning is performed using new task learning data when the content generation method of this time is started. decide.

1つの実施例では、GPTモデルのファインチューニングに使われるタスク学習データは、後で説明するように、過去のシナリオデータ、クライアントから提供された訴求情報、訴求情報をインターネット検索して得た文章が含まれる。本願で示した文章とは、テキスト、絵文字または画像を含む、幾つかの文を連ねて、まとまった思想を表現したものである。絵文字または画像は、GPTモデルが処理できる形式に変換される。例えば、絵文字は予め提供されたリストに従って文字に変換してもよい。画像は既存の画像分析方法で文字に変換してもよい。また、過去のタスク学習データから適当に選んだものを検査データ(test data)として扱う。 In one embodiment, the task learning data used for fine-tuning the GPT model is past scenario data, appeal information provided by the client, and sentences obtained by searching the Internet for appeal information, as will be described later. included. A sentence in the present application is a series of sentences including text, pictograms or images to express a cohesive idea. Pictograms or images are converted to a format that the GPT model can handle. For example, pictograms may be converted to characters according to a pre-provided list. Images may be converted to text by existing image analysis methods. In addition, appropriately selected data from past task learning data is treated as test data.

タスク学習データが事前学習済GPTモデルに入力された後、ファインチューニングを実行する。ファインチューニングのエポック数は特に規定されていないが、5エポックが好ましい。その他の訓練パラメータは、Huggingface transformersのTrainingArgumentsのデフォルトの値である。学習データも検査データも損失が減少していることを確認した上でファインチューニング済GPTモデルとして保存する。本発明に係る実施形態では、検査データの損失が減少から上昇に転じていた場合は、上昇する直前でのモデルをファインチューニング済GPTモデルとして保存する。 After the task learning data is input to the pretrained GPT model, fine-tuning is performed. The number of fine-tuning epochs is not specified, but 5 epochs is preferred. Other training parameters are default values for TrainingArguments in Huggingface transformers. After confirming that the loss of both the learning data and the inspection data has decreased, they are saved as a fine-tuned GPT model. In an embodiment according to the present invention, if the loss of inspection data has turned from a decrease to an increase, the model immediately before the increase is saved as the fine-tuned GPT model.

そのように、ファインチューニング済GPTモデルにタスク学習データの文章の書き出しを与えると、望ましい基礎文章を自動で作成することができる。 In this way, when the fine-tuned GPT model is provided with the writing of task learning data sentences, it is possible to automatically create desirable basic sentences.

図2に示す、GPTモデルのファインチューニング及び仕組みを理解した後に、続いて、図3に基づいてBERTモデル訓練の実例を説明する。 After understanding the fine-tuning and mechanics of the GPT model shown in FIG. 2, a practical example of BERT model training is subsequently described based on FIG.

まず、図3を参照する。図3は、図1に示すコンテンツ生成方法に使用されるBERTモデルに推敲コンテンツを生成させるイメージである。本実施形態において、最初に使われるBERTの事前学習モデルとして、Huggingface Transformersにアップロードされている、hfl/chinese-bert-wwm-extを使用したが、使用する事前学習モデルは生成する言語に応じて変更し得て、本発明はこの例に制限されない。なお、本実施形態において、事前学習済BERTモデルは、コンテンツ生成方法が実行する時点の前にファインチューニングを実行したものであってもよい。例えば、ファインチューニングには、先月ファインチューニングしたBERTモデルを使用してもよい。即ち、本発明のコンテンツ生成方法において、事前学習済BERTモデルとファインチューニング済BERTモデルとの取り分けは、今回のコンテンツ生成方法を開始する時点で、新しいタスク学習データによってファインチューニングを行ったかに応じて決定する。 First, refer to FIG. FIG. 3 is an image of how the BERT model used in the content generation method shown in FIG. 1 generates the revised content. In this embodiment, hfl/chinese-bert-wwm-ext uploaded to Huggingface Transformers was used as the BERT pre-learning model to be used first, but the pre-learning model to be used depends on the language to be generated. It can be modified and the invention is not limited to this example. Note that in this embodiment, the pre-trained BERT model may be fine-tuned before the content generation method is executed. For example, fine-tuning may use the BERT model that was fine-tuned last month. That is, in the content generation method of the present invention, the pre-trained BERT model and the fine-tuned BERT model are divided depending on whether or not fine-tuning is performed using new task learning data at the time of starting the content generation method of this time. decide.

本実施形態では、BERTモデルのファインチューニングに使われるタスク学習データと検査データの詳細も含めて、GPTモデルのファインチューニングと同じである。 In this embodiment, fine tuning of the BERT model is the same as fine tuning of the GPT model, including details of task learning data and inspection data.

タスク学習データがBERTモデルに入力された後、ファインチューニングを実行する。ファインチューニングのエポック数は特に規定されていないが、5エポックが好ましい。その他の訓練パラメータは、Huggingface transformersのTrainingArgumentsのデフォルトの値である。訓練データも検査データも損失が減少していることを確認した上でファインチューニング済BERTモデルとして保存し、ここでは、検査データの損失が減少から上昇に転じていた場合は、上昇する直前でのモデルをファインチューニング済BERTモデルとして保存する。 After the task learning data is input to the BERT model, fine-tuning is performed. The number of fine-tuning epochs is not specified, but 5 epochs is preferred. Other training parameters are default values for TrainingArguments in Huggingface transformers. After confirming that the loss of both the training data and the inspection data is decreasing, save it as a fine-tuned BERT model. Save the model as a fine-tuned BERT model.

そのように、ファインチューニング済BERTモデルにGPTモデルで生成した基礎文章の文章を与えると、基礎文章において、単語をランダムに隠してファインチューニング済BERTが代わりの候補を挙げる推敲を行って、推敲文章及び推敲文章の分散表現を出力する。 In this way, when the fine-tuned BERT model is given the sentence of the basic sentence generated by the GPT model, in the basic sentence, words are randomly hidden and the fine-tuned BERT selects alternative candidates. and outputs a distributed representation of the revised text.

図3に示す、BERTモデルのファインチューニング及び仕組みを理解した後に、続いて、図4に基づいてコンバージョンレートを予測するファインチューニング済NNモデルの構成の実例を説明する。 After understanding the fine-tuning and mechanics of the BERT model shown in FIG. 3, an example of constructing a fine-tuned NN model for predicting conversion rates based on FIG. 4 will be described.

図4を参照する。図4は、図1に示すコンテンツ生成方法に使用される、NNモデルの一般的なアーキテクチャの説明図である。図4に示すように、図1に示す例示的な方法に使用されるNNモデルはNN40を含む。基本的に入力層401、隠れ層402及び出力層403を含む。入力層401は、N次元ベクトルを入力するためにN個のニューロンで構成され、隠れ層402はN/2個のニューロンで、出力層403は1個のニューロンで構成される。ここで、本発明では特に説明しない限りNは正の整数である。また、本実施形態では、隠れ層402は1層で、Nが768となるが、隠れ層の数もNの値も実際のニーズに応じて調整し得て、この例に制限される意図はない。また、本実施形態では、隠れ層402のニューロンに使われる活性化関数はReLUであり、出力層403のニューロンに使われる活性化関数はシグモイド関数であるが、それら活性化関数も実際のニーズに応じて調整し得て、この例に制限される意図はない。 Please refer to FIG. FIG. 4 is an explanatory diagram of the general architecture of the NN model used in the content generation method shown in FIG. As shown in FIG. 4, the NN model used in the exemplary method shown in FIG. 1 includes NN40. It basically includes an input layer 401 , a hidden layer 402 and an output layer 403 . The input layer 401 consists of N neurons for inputting an N-dimensional vector, the hidden layer 402 consists of N/2 neurons, and the output layer 403 consists of 1 neuron. Here, in the present invention, N is a positive integer unless otherwise specified. In addition, in this embodiment, there is one hidden layer 402 and N is 768, but both the number of hidden layers and the value of N can be adjusted according to actual needs. do not have. Also, in this embodiment, the activation function used for the neurons in the hidden layer 402 is ReLU, and the activation function used for the neurons in the output layer 403 is the sigmoid function. It is not intended to be limited to this example, as it may be adjusted accordingly.

なお、当業者であれば、NNモデルの原理、構造及び具体的な細部を理解することができるはずであるため、以下、後続の説明の便宜のため、本発明に係る事前学習済NNモデルをファインチューニングする実例を簡単に説明する。1つの例では、図4に示す左側からNN40の入力層401にBERTモデルによる推敲文章の分散表現(768次元ベクトル)を入力し、図4に示す右側からコンバージョンレート(値は0と1の間)を出力する。本実施形態のコンテンツ生成方法では、NNモデルにおいて、NN40と同じ構成のニューラルネットワークを全部で24個を使用するが、本発明はこの例に制限されない。 It should be noted that those skilled in the art should be able to understand the principle, structure and specific details of the NN model. An example of fine-tuning will be briefly explained. In one example, the input layer 401 of the NN 40 from the left side shown in FIG. ). In the content generation method of this embodiment, a total of 24 neural networks having the same configuration as the NN 40 are used in the NN model, but the present invention is not limited to this example.

1つの好適な実施例では、後で説明するように、過去のシナリオデータから、シナリオの文章とコンバージョンレートをタスク予測学習データとして取得する。タスク予測学習データを事前学習済みのBERTモデルに入力する。BERTモデルの各層(Word embedding層を除く12層)から、文頭[CLS]と文末[SEP]の分散表現を取り出す。総計12×2=24種類の分散表現(すべて768次元ベクトル)を得る。そして、24個の事前学習済NN40に、各種類の分散表現を入力し、それぞれ出力を得る。計24個の出力と、実際のコンバージョンレートの差を計算し、その絶対値を足し上げた値が0に近づくように、ニューラルネットワークをファインチューニングする。ファインチューニング後にコンバージョンレートを予測する際は、計24個の出力を平均した値を使っている。 In one preferred embodiment, scenario sentences and conversion rates are obtained from past scenario data as task prediction learning data, as will be described later. Input task prediction learning data into a pre-trained BERT model. From each layer of the BERT model (12 layers excluding the word embedding layer), the distributed representation of the beginning [CLS] and ending [SEP] of the sentence is taken out. A total of 12×2=24 distributed representations (all 768-dimensional vectors) are obtained. Each type of distributed representation is input to the 24 pre-trained NNs 40, and each output is obtained. Calculate the difference between a total of 24 outputs and the actual conversion rate, and fine-tune the neural network so that the sum of the absolute values approaches zero. When estimating the conversion rate after fine-tuning, we use the average value of a total of 24 outputs.

続いて、ファインチューニング済NNモデルを本実施形態のコンテンツ生成方法に利用する実例について説明する。ファインチューニング済BERTモデルによる推敲文章についてファインチューニング済NNモデルによってコンバージョンレートを予測し、コンバージョンレートを高める候補のみを残し、ファインチューニング済BERTモデルにフィードバックする。ファインチューニング済BERTモデルによる推敲と、コンバージョンレートを高める候補のフィードバックとを繰り返すと、予測されるコンバージョンレートの上昇が収束する推敲文章を作ることができる。それらの推敲文章を配布用文章(配布用コンテンツ)として出力して、本実施形態に係るコンテンツ生成方法のプロセスは終了する。 Next, an example of using the fine-tuned NN model for the content generation method of this embodiment will be described. The conversion rate is predicted by the fine-tuned NN model for the sentences refined by the fine-tuned BERT model, and only the candidates that increase the conversion rate are left and fed back to the fine-tuned BERT model. By iterating elaboration with the fine-tuned BERT model and feedback of conversion rate boosting candidates, it is possible to produce elaboration sentences that converge on predicted conversion rate increases. These revised texts are output as texts for distribution (contents for distribution), and the process of the content generation method according to this embodiment ends.

続いて、図5~7を参照されたい。図5~7は、BERTモデル及びGPTモデルに使用されるタスク学習データの実施形態を説明するための図である。本実施形態では、タスク学習データは、過去のシナリオデータ、クライアントから提供された訴求情報、または/及び訴求情報をインターネット検索して得た文章を含む。 Please refer to FIGS. 5-7. 5-7 are diagrams for explaining embodiments of task learning data used for the BERT model and the GPT model. In this embodiment, the task learning data includes past scenario data, appealing information provided by the client, and/or sentences obtained by searching the appealing information on the Internet.

図5では、本実施形態のタスク学習データに含まれる、過去のシナリオデータの一例を示す説明図である。図5に示すように、過去のシナリオデータは、例えば、公開、またはビジネス向けのチャットルームにおけるターゲットユーザーとの会話記録や、問診結果等のユーザーとの対話で得られたデータを含む。それらの過去のシナリオデータの収集、分類、格納については、特定の期間で特定の数の文章を特定の分類付けで取得できれば、既存のデータ収集・処理手法のいずれかによって行っても構わない。 FIG. 5 is an explanatory diagram showing an example of past scenario data included in the task learning data of this embodiment. As shown in FIG. 5, past scenario data includes, for example, conversation records with target users in public or business chat rooms, and data obtained through conversations with users such as interview results. Collection, classification, and storage of such past scenario data may be performed by any of the existing data collection/processing methods as long as a specific number of sentences can be obtained with specific classification in a specific period.

図6では、本実施形態のタスク学習データに含まれる、クライアントから提供された訴求情報の一例を示す説明図である。ここでのクライアントは、本発明のコンテンツ生成方法でコンテンツ作成サービスを依頼した者を言う。例えば、広告主、行政機関、研究機関等が挙げられる。訴求情報の内容はクライアントによって異なっているが、少なくともクライアントが伝えたい思想に係る文章、及びターゲットユーザーに関わる統計性の情報を含む。例えば、図6は、クライアントが広告主である場合を想定した訴求情報の例を示す。図6において、クライアントが伝えたい思想に係る文章としては、例えば、商品紹介、サイド参考、成果の良い広告訴求等が挙げられ、また、ターゲットユーザーに関わる統計性の情報としては、例えば、性別、高齢層等のターゲットの詳細が挙げられる。訴求情報の取得は、依頼の場合、上述した情報を含むように、クライアントにアンケートを取ってもよいが、他の既存のデータ収集・処理手法のいずれかによって行っても構わない。 FIG. 6 is an explanatory diagram showing an example of the appeal information provided by the client, which is included in the task learning data of this embodiment. A client here means a person who requests a content creation service by the content creation method of the present invention. For example, advertisers, administrative agencies, research institutes, etc. can be mentioned. The content of the appeal information differs depending on the client, but at least includes sentences related to the ideas the client wants to convey and statistical information related to the target user. For example, FIG. 6 shows an example of appeal information assuming that the client is an advertiser. In FIG. 6, examples of sentences related to the idea that the client wants to convey include product introduction, side reference, advertising appeal with good results, and the like. Details of targets such as the elderly are included. In the case of request, acquisition of appeal information may be conducted by taking a questionnaire to the client so as to include the above-mentioned information, or by any other existing data collection/processing method.

図7では、本実施形態のタスク学習データに含まれる、訴求情報をインターネット検索して得た文章の一例を示す説明図である。本発明のコンテンツ生成方法で作られた文章の表現をさらに豊かにするために、訴求情報から得られたいくつかのキー情報によって、インターネット検索を行い、例えば、ランキング上位10サイトの文章を抽出して、訴求情報をインターネット検索して得た文章として使える。ここでは、訴求情報をインターネット検索して得た文章をさらに洗練するために、事前学習済BERTモデルの分散表現を使い、もともと訴求情報に含まれる文章の分散表現とのコサイン類似度が高いもの、例えば、コサイン類似度が特定の閾値以上のものを選ぶようにしてもよい。本実施形態では、特定の閾値が0.9であることが好ましい。なお、訴求情報をインターネット検索して得た文章を、訴求情報に係る定型文に換えてもよいが、最新の文章表現から離れる場合があるため、好ましくない。 FIG. 7 is an explanatory diagram showing an example of sentences obtained by searching the Internet for appealing information included in the task learning data of the present embodiment. In order to further enrich the expression of the sentences created by the content generation method of the present invention, an Internet search is performed using some key information obtained from the appeal information, and, for example, the sentences of the top 10 ranking sites are extracted. can be used as sentences obtained by searching the Internet for appeal information. Here, in order to further refine the sentences obtained by searching the Internet for the appeal information, the distributed representation of the pre-trained BERT model is used. For example, it is possible to select those whose cosine similarity is equal to or higher than a specific threshold. In this embodiment, the specific threshold is preferably 0.9. It should be noted that sentences obtained by searching the Internet for appeal information may be replaced with standard sentences related to appeal information, but this is not preferable because it may deviate from the latest sentence expressions.

続いて、図8を参照されたい。図8は、NNモデルに使用されるタスク予測学習データの実施形態を説明するための図である。本実施形態では、タスク予測学習データは、過去のシナリオ文章とコンバージョンレートの関連で構成されたデータである。例えば、図8に示した表において、B欄はシナリオ文章、E欄はそのシナリオ文章を読んだ人数、G欄は購入(CV)した人数を表示している。A欄は文章や購入画面の識別番号、C欄はその文章(や購入画面)の前に読まれた文章の識別番号を表示している。例えば、第2列の文章を読んだのは593人、その中で購入したのは(第3列に表示されているように)38人なので、コンバージョンレートは38/593=6.41%となる。シナリオ文章が複数の文章で構成されている場合は、それらの文章を繋げたものを使用して訓練する。なお、過去のシナリオ文章とコンバージョンレートとそれらの対応的な関連とを複数取得できれば、このようなデータを取得する手法またはデータの表現形式では、既存のいずれの情報処理方法で行っても構わない。 Next, please refer to FIG. FIG. 8 is a diagram for explaining an embodiment of task prediction learning data used in the NN model. In the present embodiment, the task prediction learning data is data configured in relation to past scenario sentences and conversion rates . For example, in the table shown in FIG. 8, column B indicates the scenario text, column E the number of people who read the scenario text, and column G the number of people who purchased (CV) the scenario text. Column A displays the identification number of the sentence and the purchase screen, and Column C displays the identification number of the sentence read before the sentence (or the purchase screen). For example, 593 people read the text in column 2, and 38 of them made a purchase (as shown in column 3), so the conversion rate is 38/593 = 6.41%. Become. If the scenario sentence consists of multiple sentences, train using a string of those sentences. As long as a plurality of past scenario sentences, conversion rates , and their corresponding relationships can be acquired, any existing information processing method can be used as a method or data expression format for acquiring such data. .

以上、図1から図8に基づいて、本発明の実施形態に係るコンテンツ生成方法のフロー及びフローの詳細を説明した。続いて、該例をもとに、さらに図9を参照して、本発明に係るコンテンツ生成方法を提供するサービスの一例を説明する。 The flow and details of the content generation method according to the embodiment of the present invention have been described above with reference to FIGS. 1 to 8 . Next, based on this example, an example of a service that provides the content generation method according to the present invention will be described with reference to FIG.

図9は、クライアントから依頼があってから、全サービスの流れを説明するための図である。
まず、クライアントに用意されたアンケートを取って、訴求情報を取得する。
そして、訴求情報をインターネットで検索して表示される上位10サイトの文章を取得し、訴求情報、一定時間帯内(例えば、行う時点から2か月前まで)の過去のシナリオデータと共に、タスク学習データとしてまとめる。
タスク学習データによって、事前学習済GPTモデル及び事前学習済BERTモデルのファインチューニングを行う。
最新のタスク予測学習データによって、コンバージョンレートを予測するための事前学習済NNモデルのファインチューニングを行う。
ファインチューニング済GPTモデルに、タスク学習データの文章の書き出し(5-10字)を与えて、自動で文章を生成させる。
ファインチューニング済GPTモデルが作成した文章のうち、訴求情報の文章に近いものを選択して、基礎文章とする。この選択は、ファインチューニング済BERTモデルの分散表現を使い、コサイン類似度が高いものを選ぶ。
基礎文章において、単語をランダムに隠してファインチューニング済BERTモデルが代わりの候補を挙げる推敲を実行し、ファインチューニング済NNモデルがコンバージョンレートを予測することでコンバージョンレートを高める候補のみを残し、ファインチューニング済BERTモデルにフィードバックして推敲を再実行する。
予測されるコンバージョンレートの上昇が収束するまで、上記の推敲とフィードバックを繰り返す。そのように推敲された文章を配布用文章として生成し、プロセスを終了する。
以上のプロセスにより、複数の配布用文章を生成することができる。
FIG. 9 is a diagram for explaining the flow of all services after receiving a request from a client.
First, take a questionnaire prepared for the client and obtain appeal information.
Then, search for the appealing information on the Internet and acquire the sentences of the top 10 sites displayed, along with the appealing information and past scenario data within a certain time period (for example, up to 2 months before), task learning Summarize as data.
Fine-tuning the pre-trained GPT model and the pre-trained BERT model with the task learning data.
Fine-tuning a pre-trained NN model to predict conversion rates with the latest task prediction learning data.
The fine-tuned GPT model is provided with the writing out of task learning data sentences (5 to 10 characters) to automatically generate sentences.
Of the sentences created by the fine-tuned GPT model, sentences close to the sentences of the appeal information are selected as basic sentences. This selection uses the variance representation of the fine-tuned BERT model and chooses the one with the highest cosine similarity.
In the basic sentence, the words are randomly hidden, and the fine-tuned BERT model performs elaboration to select alternative candidates. Re-execute refinement by feeding back to the existing BERT model.
Repeat the above elaboration and feedback until the expected conversion rate increase converges. The document so refined is generated as a distribution document, and the process ends.
Through the above process, a plurality of distribution documents can be generated.

そのように、クライアントの依頼から、コンバージョンレートを高める、自然な配布用文章をAIで自動的に生成することができるため、配布用文章の生成効率を抜群にするだけではなく、配布用文章と読み手(即ち、消費者、ターゲット使用者)のとの関連をより緊密にさせることができ、最終的には、例えば、CVRの増加、CPAの削減またはLTVの伸び等のマーケティングに関わる目標を達することができる。また、本発明における配布用文章は、例えば、ポップアップ広告、チャットボットの会話の材料、プッシュ通知のメッセージ等が挙げられるが、本発明はこれらの例に制限されない。 In this way, from the client's request, AI can automatically generate natural distribution sentences that increase the conversion rate. Can be more closely related to readers (i.e. consumers, target users), ultimately reaching marketing-related goals such as increasing CVR, reducing CPA or increasing LTV be able to. In addition, the distribution text in the present invention includes, for example, pop-up advertisements, materials for chatbot conversations, push notification messages, etc., but the present invention is not limited to these examples.

続いて、図10を参照して、本発明に係るコンテンツ生成方法で生成した配布用コンテンツをターゲットユーザーに提供するコンテンツ提供方法の一例を説明する。図10は、本発明の実施形態に係るコンテンツ提供方法の例示的フローのフローチャートである。図10に示すように、コンテンツ提供方法の例示的フロー1000は、以下のステップを含んでも良い。 Next, with reference to FIG. 10, an example of a content providing method for providing distribution content generated by the content generating method according to the present invention to target users will be described. FIG. 10 is a flow chart of an exemplary flow of a method for providing content according to an embodiment of the present invention. As shown in FIG. 10, an exemplary flow 1000 of a method for providing content may include the following steps.

ステップS1001:文章タイプタスク予測学習データによって、コンテンツ(文章)のタイプを予測するための事前学習済タイプ予測NNモデルのファインチューニングを行う;
ステップS1003:ユーザータイプタスク予測学習データによって、ターゲットユーザーにCVしやすい文章のタイプを予測するための事前学習済ユーザー予測NNモデルのファインチューニングを行う;
ステップS1005:ファインチューニング済タイプ予測NNモデルに、予測しようとする配布用文章を入力し、配布用文章のタイプを予測して、タイプを配布用文章に対応付ける;
ステップS1007:ファインチューニング済ユーザー予測NNモデルに、ターゲットユーザーデータを入力し、ターゲットユーザーにCVしやすい配布用文章のタイプを予測して、タイプをターゲットユーザーに対応付ける;
ステップS1009:各配布用文章をそれに対応付けたタイプに応じて、各ターゲットユーザーに提供する;
Step S1001: Perform fine-tuning of the pre-trained type prediction NN model for predicting the type of content (sentence) by the sentence type task prediction learning data;
Step S1003: Perform fine-tuning of the pre-trained user prediction NN model for predicting the type of sentences that are likely to be CVed to the target user by the user type task prediction learning data;
Step S1005: Input the distribution text to be predicted into the fine-tuned type prediction NN model, predict the type of the distribution text, and associate the type with the distribution text;
Step S1007: Input the target user data into the fine-tuned user prediction NN model, predict the type of distribution text that is likely to be CVed to the target user, and associate the type with the target user;
Step S1009: providing each distribution text to each target user according to its associated type;

そのようにして、本発明に係るコンテンツ提供方法によれば、ターゲットユーザーにCVしやすいタイプの文章を提供することができる。 In this way, according to the content providing method of the present invention, it is possible to provide a target user with a type of sentence that is easy to CV.

続いて、図11に基づいて、コンテンツのタイプを予測するためのタイプ予測NNモデル、及びターゲットユーザーにCVしやすい文章のタイプを予測するためのユーザー予測NNモデルの構成の実例を説明する。 Next, based on FIG. 11, an actual example of configuration of a type prediction NN model for predicting the type of content and a user prediction NN model for predicting the type of sentences that target users are likely to CV will be described.

図11を参照する。図11は、図10に示すコンテンツ提供方法に使用される、タイプ予測NNモデル及びユーザー予測NNモデルの一般的なアーキテクチャの説明図である。図11に示すように、図10に示す例示的な方法に使用されるタイプ予測NNモデル及びユーザー予測NNモデルの構造は同様に、タイプ予測NN1100を含む。タイプ予測NN1100は、基本的に入力層1101、隠れ層1102及び出力層1103を含む。入力層1101は、N次元ベクトルを入力するためにN個のニューロンで構成され、隠れ層1102はN/2個のニューロンで、出力層1103は4個のニューロンで構成される。ここで、本発明では特に説明しない限りNは正の整数である。また、本実施形態では、隠れ層1102は1層で、Nが768、出力層のニューロンの数が4個となるが、隠れ層の数もNの値も出力層のニューロンの数も実際のニーズに応じて調整し得て、この例に制限される意図はない。また、本実施形態では、隠れ層1102のニューロンに使われる活性化関数はReLUであり、出力層1103のニューロンに使われる活性化関数はシグモイド関数であるが、それら活性化関数も実際のニーズに応じて調整し得て、この例に制限される意図はない。 Please refer to FIG. FIG. 11 is an illustration of the general architecture of the type predictive NN model and the user predictive NN model used in the content provision method shown in FIG. As shown in FIG. 11, the structures of the type predictive NN model and the user predictive NN model used in the exemplary method shown in FIG. 10 also include a type predictive NN 1100. Type prediction NN 1100 basically includes input layer 1101 , hidden layer 1102 and output layer 1103 . The input layer 1101 consists of N neurons for inputting an N-dimensional vector, the hidden layer 1102 consists of N/2 neurons, and the output layer 1103 consists of 4 neurons. Here, in the present invention, N is a positive integer unless otherwise specified. In the present embodiment, the hidden layer 1102 is one layer, N is 768, and the number of neurons in the output layer is four. It is not intended to be limited to this example as it may be adjusted according to needs. Also, in this embodiment, the activation function used for the neurons of the hidden layer 1102 is ReLU, and the activation function used for the neurons of the output layer 1103 is the sigmoid function. It is not intended to be limited to this example, as it may be adjusted accordingly.

なお、当業者であれば、NNモデルの原理、構造及び具体的な細部を理解することができるはずであるため、以下、後続の説明の便宜のため、本発明に係る事前学習済タイプ予測NNモデル及び事前学習済ユーザー予測NNモデルをファインチューニングする実例を簡単に説明する。1つの例では、まず、事前学習済タイプ予測NNモデルのファインチューニングでは、図11に示す左側からタイプ予測NN1100の入力層1101に、BERTモデルによる文章タイプタスク予測学習データにおける予測文章のBERT分散表現(最深層の文頭[CLS]の分散表現のみを使う)を入力し、文章タイプタスク予測学習データにおけるタイプの個数(ここでは4個)のニューロンで構成された出力層1103から、予測文章がそれぞれのタイプである確率(値は0と1の間)を出力するように訓練される。同じように、事前学習済ユーザー予測NNモデルのファインチューニングでは、図11に示す左側からタイプ予測NN1100の入力層1101に、ユーザータイプタスク予測学習データを入力し、ユーザータイプタスク予測学習データにおけるタイプの個数(ここでは4個)のニューロンで構成された出力層1103から、ターゲットユーザーがそれぞれのタイプのシナリオでコンバージョンする確率(コンバージョンレート、値は0と1の間)を出力するよう訓練される。 It should be noted that those skilled in the art should be able to understand the principle, structure and specific details of the NN model. An example of fine-tuning a model and a pre-trained user-predictive NN model is briefly described. In one example, first, in the fine-tuning of the pre-trained type prediction NN model, the input layer 1101 of the type prediction NN 1100 from the left side shown in FIG. (only the distributed representation of the deepest layer [CLS] is used), and from the output layer 1103 composed of the number of types (here, 4) of neurons in the sentence type task prediction learning data, the predicted sentences are each is trained to output probabilities (values between 0 and 1) that are of the type Similarly, in the fine tuning of the pretrained user prediction NN model, user type task prediction learning data is input to the input layer 1101 of the type prediction NN 1100 from the left side shown in FIG. An output layer 1103 consisting of a number (here 4) of neurons is trained to output the probability that the target user will convert in each type of scenario ( conversion rate, value between 0 and 1).

続いて、ファインチューニング済タイプ予測NNモデル及びファインチューニング済ユーザー予測NNモデルの利用例について説明する。詳しくは、1つの好適な実施例では、後で説明するような、予測したい配布用文章を、事前学習済みのBERTモデルに入力して、BERTモデルの分散表現(最深層の文頭[CLS]の分散表現のみ)を得る。そして、BERTモデルの分散表現をファインチューニング済タイプ予測NNモデルに入力し、得られた確率が最も高いタイプを配布用文章に対応付ける。1つの好適な実施例では、後で説明するような、ターゲットユーザーデータを、ファインチューニング済ユーザー予測NNモデルに入力して、得られた確率が最も高いタイプをターゲットユーザーに対応付ける。配布用文章をターゲットユーザーに提供する際、それぞれに対応付けたタイプによって提供するように行う。 Next, an example of using the fine-tuned type predictive NN model and the fine-tuned user predictive NN model will be described. Specifically, in one preferred embodiment, the handout sentences we wish to predict, as described below, are input to a pre-trained BERT model, and the distributed representation of the BERT model (the deepest sentence head [CLS] distributed representation only). The distributed representation of the BERT model is then input into the fine-tuned type prediction NN model, and the type with the highest probability obtained is associated with the handout text. In one preferred embodiment, target user data, as described below, is input into a fine-tuned user prediction NN model, and the type with the highest probability obtained is mapped to the target user. When distributing texts are provided to target users, they are provided according to the type associated with each.

続いて、図8と図12を参照されたい。図8と図12は、ファインチューニング済タイプ予測NNモデル及びファインチューニング済ユーザー予測NNモデルに使用される文章タイプタスク予測学習データ及びユーザータイプタスク予測学習データを含む学習データの実施形態を説明するための図である。本実施形態では、学習データは、過去のシナリオの文章、文章のタイプ、及びターゲットユーザーデータを含む。 Next, refer to FIGS. 8 and 12. FIG. Figures 8 and 12 are provided to illustrate embodiments of learning data including sentence-type task prediction learning data and user-type task prediction learning data used in fine-tuned type prediction NN models and fine-tuned user prediction NN models. is a diagram. In this embodiment, the learning data includes past scenario sentences, sentence types, and target user data.

図8に示された表において、文章タイプタスク予測学習データ及びユーザータイプタスク予測学習データが登録される。例えば、表のB欄にシナリオの文章、F欄に文章のタイプが文章タイプタスク予測学習データとして表示している。本実施形態では、タイプは値段優位(商品の値段が安いことを強調するシナリオ)、効果優位(商品の効果が高いことを強調するシナリオ)、インフルエンサー優位(商品を有名人が使っていることを強調するシナリオ)、コンバージョンレート優位(一度購入した商品を再度購入することを薦めるシナリオ)等4種類に分類している。一方、図12に示された表において、ユーザータイプタスク予測学習データが登録される。例えば、A欄は選択肢の一覧、B欄はそれを選んだユーザー数、C欄はそのうちコンバージョン(CV)したユーザー数、D欄以降は各シナリオでコンバージョンしたユーザー数を示している。さらに、それぞれのシナリオ文章のタイプを読み取る。以上のデータを組み合わせることにより、それぞれの選択肢を選んだユーザーが、どのタイプの文章でコンバージョンしたか、その確率を計算することができる。これがユーザータイプタスク予測学習データとなる。なお、それらのデータの収集、分類、格納については、既存のデータ収集・処理手法のいずれかによって行っても構わない。 In the table shown in FIG. 8, sentence type task prediction learning data and user type task prediction learning data are registered. For example, in column B of the table, scenario text is displayed, and in column F, the type of text is displayed as text type task prediction learning data. In this embodiment, the types are price superiority (scenario emphasizing that the product is cheap), effect superiority (scenario emphasizing that the product is highly effective), and influencer superiority (scenario emphasizing that the product is used by celebrities). Scenario to emphasize), conversion rate superiority (scenario that encourages customers to repurchase products that they have already purchased). On the other hand, in the table shown in FIG. 12, user type task prediction learning data is registered. For example, column A is a list of options, column B is the number of users who chose it, column C is the number of users who converted (CV), and column D and onwards are the number of users who converted in each scenario. In addition, read the type of each scenario sentence. By combining the above data, it is possible to calculate the probability that users who chose each option converted with what type of sentence. This becomes user type task prediction learning data. The collection, classification, and storage of these data may be performed by any of the existing data collection/processing techniques.

図13は、配布用コンテンツの提供の全サービスの流れを説明するための図である。
最新の文章タイプタスク予測学習データ及びユーザータイプタスク予測学習データを学習データとして、事前学習済タイプ予測NNモデル及び事前学習済ユーザー予測NNモデルのファインチューニングを行う。
配布用文章を送信するターゲットを選ぶために、ファインチューニング済タイプ予測NNモデル及びファインチューニング済ユーザー予測NNモデルを使って、各ターゲットユーザーが過去に選んだ選択肢からどの配布用文章を送信すると最もコンバージョンしやすいかを予測して選ぶ。
以上のプロセスにより選ばれた、それぞれのターゲットユーザーが最もコンバージョンしやすい配布用文章を、各ターゲットユーザーに送信する。
FIG. 13 is a diagram for explaining the flow of all services for providing content for distribution.
Fine-tuning of the pretrained type prediction NN model and the pretrained user prediction NN model is performed using the latest sentence type task prediction learning data and user type task prediction learning data as learning data.
In order to select targets to send handouts, we used a fine-tuned type predictive NN model and a fine-tuned user prediction NN model to determine which handouts sent from the choices each target user made in the past had the highest conversion rate. Predict whether it will be easy and choose.
Selected by the above process, the text for distribution that is most likely to convert for each target user is sent to each target user.

特筆すべきは、送信後、各ユーザーが読んだシナリオ、シナリオの中で選んだ選択肢、どのシナリオでコンバージョンに至ったかのデータは、サーバーに残り、次の学習データとして使用されてもよい。また、本実施形態に係るコンテンツ提供方法は、クライアントの希望に応じて、他の目的を達するために配布用文章を提供しても可能である。例えば、別の実施形態において、CVRを向上させる目標を、顧客生涯価値(LTV)の伸びとすれば、例えば、上記実施形態におけるコンテンツ提供方法に加えて、例えば、ターゲットユーザーのランディングページへのアクセス率が高い、配布用文章(例えばプッシュ通知)を送るタイミングを予測するためのNNモデルをさらに利用するなど、様々な目標を果たすことが可能である。 It should be noted that after sending, the data of the scenarios read by each user, the choices made in the scenarios, and which scenarios led to conversions remain on the server and may be used as the next learning data. In addition, according to the content providing method according to the present embodiment, it is also possible to provide distribution texts to achieve other purposes according to the client's wishes. For example, in another embodiment, if the goal of improving CVR is to increase customer lifetime value (LTV), for example, in addition to the content provision method in the above embodiment, for example, access to the target user's landing page Various goals can be served, such as further use of NN models for predicting when to send out handouts (eg, push notifications) with high rates.

本発明のもう1つの側面として、情報処理装置が提供される。情報処理装置の処理器は、例えば、上述の図1、10を参照して説明したコンテンツ生成方法及びコンテンツ提供方法、及びそれらの各ステップの操作及び/又は処理を行い、類似した効果を実現するように構成されても良いが、ここでは、その詳しい説明を省略する。また、処理器が使用するNNモデルは、上述の図4、11を参照して説明したモデルのアーキテクチャの最適化のための例示的処理により取得されても良い。 An information processing apparatus is provided as another aspect of the present invention. The processor of the information processing device performs operations and/or processes of, for example, the content generation method and the content provision method described with reference to FIGS. However, detailed description thereof is omitted here. The NN model used by the processor may also be obtained by the exemplary process for optimizing the architecture of the model described with reference to FIGS. 4 and 11 above.

図14は、本発明の実施例におけるコンテンツ生成方法、コンテンツ提供方法及び情報処理装置を実現し得るハードウェア構成(汎用マシン)1400の構造図である。 FIG. 14 is a structural diagram of a hardware configuration (general-purpose machine) 1400 that can implement the content generation method, content provision method, and information processing apparatus according to the embodiment of the present invention.

汎用マシン1400は、例えば、コンピュータシステムであっても良い。なお、汎用マシン1400は、例示に過ぎず、本発明による方法及び装置の応用範囲又は機能について限定しない。また、汎用マシン1400は、上述の方法及び装置における任意のモジュールやアセンブリなど又はその組み合わせに依存しない。 General purpose machine 1400 may be, for example, a computer system. It should be noted that general purpose machine 1400 is exemplary only and does not limit the scope of application or functionality of the methods and apparatus according to the present invention. Also, general-purpose machine 1400 does not rely on any modules, assemblies, etc., or combinations thereof in the methods and apparatus described above.

図14では、中央処理装置(CPU)1401は、ROM1402に記憶されているプログラム又は記憶部1408からRAM1403にロードされているプログラムに基づいて各種の処理を行う。RAM1403では、ニーズに応じて、CPU1401が各種の処理を行うときに必要なデータなどを記憶することもできる。CPU1401、ROM1402及びRAM1403は、バス1404を経由して互いに接続される。入力/出力インターフェース1405もバス1404に接続される。 In FIG. 14, a central processing unit (CPU) 1401 performs various processes based on programs stored in a ROM 1402 or programs loaded from a storage unit 1408 to a RAM 1403 . The RAM 1403 can also store data necessary for the CPU 1401 to perform various processes according to needs. The CPU 1401 , ROM 1402 and RAM 1403 are interconnected via a bus 1404 . Input/output interface 1405 is also connected to bus 1404 .

また、入力/出力インターフェース1405には、さらに、次のような部品が接続され、即ち、キーボードなどを含む入力部1406、液晶表示器(LCD)などのような表示器及びスピーカーなどを含む出力部1407、ハードディスクなどを含む記憶部1408、ネットワーク・インターフェース・カード、例えば、LANカード、モデムなどを含む通信部1409である。通信部1409は、例えば、インターネット、LANなどのネットワークを経由して通信処理を行う。ドライブ1410は、ニーズに応じて、入力/出力インターフェース1405に接続されても良い。取り外し可能な媒体1411、例えば、半導体メモリなどは、必要に応じて、ドライブ1410にセットされることにより、その中から読み取られたコンピュータプログラムを記憶部1408にインストールすることができる。 The input/output interface 1405 is further connected with the following components: an input unit 1406 including a keyboard, an output unit including a display such as a liquid crystal display (LCD) and a speaker. 1407, a storage unit 1408 including a hard disk, etc., and a communication unit 1409 including a network interface card such as a LAN card, a modem, and the like. A communication unit 1409 performs communication processing via a network such as the Internet or a LAN, for example. Drives 1410 may be connected to input/output interfaces 1405 as desired. A removable medium 1411 , such as a semiconductor memory, can be set in the drive 1410 as necessary to install a computer program read therefrom into the storage unit 1408 .

また、本発明は、さらに、マシン可読指令コードを含むプログラムプロダクトを提供する。このような指令コードは、マシンにより読み取られて実行されるときに、上述の本発明の実施形態における方法を実行することができる。それ相応に、このようなプログラムプロダクトをキャリーする、例えば、磁気ディスク、光ディスク、光磁気ディスク、及び半導体記憶器などの各種記憶媒体も、本発明に含まれる。 Additionally, the present invention further provides a program product comprising machine-readable instruction code. Such instruction code, when read and executed by a machine, is capable of performing the methods in the embodiments of the invention described above. Correspondingly, various storage media such as magnetic discs, optical discs, magneto-optical discs, and semiconductor memories carrying such program products are also included in the present invention.

上述の記憶媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体記憶器などを含んでも良いが、これらに限定されない。 The above storage medium may include, for example, a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory device, etc., but is not limited to these.

また、上述の方法における各操作(処理)は、各種のマシン可読記憶媒体に記憶されているコンピューター実行可能なプログラムの方式で実現することもできる。 Also, each operation (process) in the above-described method can be realized in the form of a computer-executable program stored in various machine-readable storage media.

以上、本発明の好ましい実施形態を説明したが、本発明はこの実施形態に限定されず、本発明の趣旨を逸脱しない限り、本発明に対するあらゆる変更は、本発明の技術的範囲に属する。 Although the preferred embodiment of the present invention has been described above, the present invention is not limited to this embodiment, and all modifications to the present invention fall within the technical scope of the present invention as long as they do not depart from the gist of the present invention.

40 ファインチューニング済NN
401 入力層
402 隠れ層
403 出力層
1100 タイプ予測NN
1101 入力層
1102 隠れ層
1103 出力層
1400 汎用マシン
1401 中央処理装置
1402 ROM
1403 RAM
1404 バス
1405 入力/出力インターフェース
1406 入力部
1407 出力部
1408 記憶部
1409 通信部
1410 ドライブ
1411 取り外し可能な媒体
40 fine-tuned NN
401 Input layer 402 Hidden layer 403 Output layer 1100 Type prediction NN
1101 Input layer 1102 Hidden layer 1103 Output layer 1400 General-purpose machine 1401 Central processing unit 1402 ROM
1403 RAM
1404 bus 1405 input/output interface 1406 input unit 1407 output unit 1408 storage unit 1409 communication unit 1410 drive 1411 removable medium

Claims (10)

訴求情報を取得する取得ステップと、
タスク学習データで機械学習を実行した訓練済みのGPTモデルによって、前記訴求情報に基づいて基礎コンテンツを生成する基礎コンテンツ生成ステップと、
タスク学習データで機械学習を実行した訓練済みのBERTモデルによって前記基礎コンテンツにおける単語をランダムに隠して代わりの候補を挙げるように前記基礎コンテンツの推敲を行う推敲ステップと、
タスク予測学習データによって訓練した訓練済みのNN(ニューラルネットワーク)モデルで前記推敲ステップによる推敲した文章のコンバージョンレートを予測し、前記コンバージョンレートを高める前記推敲した文章のみを残して、それを新たな基礎コンテンツと見做して、前記推敲ステップにフィードバックするフィードバックステップと、
前記推敲ステップと前記フィードバックステップを繰り返して、コンバージョンレートの上昇が収束したコンテンツを配布用コンテンツとして生成する配布用コンテンツ生成ステップと、
をコンピューターに実行させることを特徴とする、コンテンツ生成方法。
an acquisition step of acquiring solicitation information;
a basic content generation step of generating basic content based on the appeal information by a trained GPT model that has performed machine learning with task learning data;
an elaboration step of elaborating the base content to randomly hide words in the base content and suggest alternative candidates by a trained BERT model that has performed machine learning on task learning data;
Predicting the conversion rate of the sentences elaborated by the elaboration step with a trained NN (neural network) model trained by task prediction learning data, leaving only the elaborated sentences that increase the conversion rate, and using them as new basis a feedback step for treating content as feedback to the elaboration step;
a content-for-distribution generation step of repeating the elaboration step and the feedback step to generate content for which the increase in conversion rate has converged as content for distribution;
A content generation method characterized by causing a computer to execute
前記タスク学習データは、チャットボットによるターゲット対象との会話内容を含む、過去のシナリオデータ、前記訴求情報、または前記訴求情報をネットワークで検索して得られたランキング上位のコンテンツを含む、請求項1に記載のコンテンツ生成方法。 2. The task learning data includes past scenario data, the appeal information, or high-ranking content obtained by searching a network for the appeal information, which includes the content of a conversation with a target target by a chatbot. content generation method described in . 前記NNモデルの訓練に事前学習済BERTモデルによるタスク予測学習データの分散表現が使用され、前記タスク予測学習データは、前記過去のシナリオデータとコンバージョンレートの関連で構成されたデータである、請求項2に記載のコンテンツ生成方法。 Distributed representation of task prediction learning data by a pre-trained BERT model is used for training the NN model, and the task prediction learning data is data configured in relation to the past scenario data and conversion rates. 2. The content generation method according to 2. 前記タスク学習データは、インターネットから抽出したデータのうち、前記過去のシナリオデータとコサイン類似度が一定の閾値を超えたコンテンツを含む、請求項2に記載のコンテンツ生成方法。 3. The content generation method according to claim 2, wherein said task learning data includes content whose cosine similarity with said past scenario data exceeds a predetermined threshold among data extracted from the Internet. 前記タスク学習データは、インターネットから抽出したデータ、または予めデータベースに用意されたデータを含み、
前記過去のシナリオデータとコサイン類似度が一定の閾値を超えたコンテンツは、訓練済みのBERTモデルによってコンテンツのコサイン類似度の測定を行って抽出する、請求項4に記載のコンテンツ生成方法。
The task learning data includes data extracted from the Internet or data prepared in advance in a database,
5. The content generation method according to claim 4, wherein the content whose cosine similarity with said past scenario data exceeds a certain threshold is extracted by measuring the cosine similarity of the content using a trained BERT model.
前記タスク予測学習データは少なくとも訴求人が伝えたい思想を含むコンテンツ、及び伝えたいターゲット対象の統計性のデータを含む、請求項1~5の何れか1項に記載のコンテンツ生成方法。 6. The content generation method according to any one of claims 1 to 5, wherein said task prediction learning data includes at least content containing an idea that an appealer wants to convey and statistical data of a target that the appealer wants to convey. 前記配布用コンテンツは、チャットボットによる会話に使用されるメッセージ、またはプッシュ通知用メッセージである、請求項1~5の何れか1項に記載のコンテンツ生成方法。 The content generation method according to any one of claims 1 to 5, wherein said content for distribution is a message used for conversation by a chatbot or a message for push notification. コンテンツのタイプを予測する訓練済みのNNモデルによって、請求項1~7の何れか1項に記載のコンテンツ生成方法で生成した配布用コンテンツのタイプを予測して、前述配布用コンテンツと予測されたタイプを対応付けるステップと、
ターゲット対象に対してコンバージョンしやすいコンテンツのタイプを予測する訓練済みのNNモデルによって、タスクとなるターゲット対象に対してコンバージョンしやすいコンテンツのタイプを予測して、前述ターゲット対象と予測されたタイプを対応付けるステップと、
前記対応付けたタイプに応じて、前記配布用コンテンツを対応的に前記ターゲット対象に提供するステップと、
をコンピューターに実行させることを特徴とするコンテンツ提供方法。
The type of content for distribution generated by the content generation method according to any one of claims 1 to 7 is predicted by a trained NN model for predicting the type of content, and the type of content for distribution is predicted as the content for distribution. mapping a type;
A trained NN model that predicts the type of content that is likely to convert to the target is used to predict the type of content that is likely to be converted to the target, which is a task, and the predicted type is associated with the target. a step;
Correspondingly providing the content for distribution to the target according to the associated type;
A content providing method characterized by causing a computer to execute
訴求情報を取得し、
タスク学習データで機械学習を実行した訓練済みのGPTモデルによって、前記訴求情報に基づいて基礎コンテンツを生成し、
タスク学習データで機械学習を実行した訓練済みのBERTモデルによって前記基礎コンテンツにおける単語をランダムに隠して代わりの候補を挙げるように前記基礎コンテンツの推敲を行い、
タスク予測学習データによって訓練した訓練済みのNN(ニューラルネットワーク)モデルによって、前記BERTモデルで推敲した文章のコンバージョンレートを予測し、該文章の前記コンバージョンレートを高める推敲した文章のみを残して、それを新たな基礎コンテンツと見做して、前記BERTモデルの推敲にフィードバックし、
前記BERTモデルの推敲とNNモデルのフィードバックステップを繰り返して、コンバージョンレートの上昇が収束したコンテンツを配布用コンテンツとして生成する、
処理をコンピューターに実行させることを特徴とするコンテンツ生成プログラム。
to obtain solicitation information,
Generate basic content based on the appeal information by a trained GPT model that has performed machine learning with task learning data,
elaborating the base content by randomly hiding words in the base content and suggesting alternative candidates by a trained BERT model that has performed machine learning on task learning data;
A trained NN (neural network) model trained with task prediction learning data predicts the conversion rate of the sentences refined by the BERT model, leaving only the refined sentences that increase the conversion rate of the sentences, and leaving them Regarded as new basic content, feed back to the elaboration of the BERT model,
Repeating the refinement of the BERT model and the feedback step of the NN model to generate content for which the increase in conversion rate has converged as content for distribution;
A content generation program characterized by causing a computer to execute processing.
コンテンツのタイプを予測する訓練済みのNNモデルによって、請求項9に記載のプログラムで生成した配布用コンテンツのタイプを予測して、前述配布用コンテンツと予測されたタイプを対応付けて、
ターゲット対象に対してコンバージョンしやすいコンテンツのタイプを予測する訓練済みのNNモデルによって、タスクとなるターゲット対象に対してコンバージョンしやすいコンテンツのタイプを予測して、前述ターゲット対象と予測されたタイプを対応付けて、
前記対応付けたタイプに応じて、前記配布用コンテンツを対応的に前記ターゲット対象に提供する、
処理をコンピューターに実行させることを特徴とするコンテンツ提供プログラム。
Predicting the type of content for distribution generated by the program according to claim 9 by a trained NN model for predicting the type of content, and associating the content for distribution with the predicted type,
Using a trained NN model that predicts the type of content that is likely to convert to the target, predicts the type of content that is likely to convert to the target, which is the task, and responds to the predicted type of target Attached to,
Correspondingly providing the distribution content to the target according to the associated type;
A content providing program characterized by causing a computer to execute processing.
JP2021160290A 2021-09-30 2021-09-30 CONTENT GENERATION METHOD, CONTENT PROVISION METHOD, AND THEREOF PROGRAM Active JP7245478B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021160290A JP7245478B1 (en) 2021-09-30 2021-09-30 CONTENT GENERATION METHOD, CONTENT PROVISION METHOD, AND THEREOF PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021160290A JP7245478B1 (en) 2021-09-30 2021-09-30 CONTENT GENERATION METHOD, CONTENT PROVISION METHOD, AND THEREOF PROGRAM

Publications (2)

Publication Number Publication Date
JP7245478B1 true JP7245478B1 (en) 2023-03-24
JP2023050264A JP2023050264A (en) 2023-04-11

Family

ID=85705730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021160290A Active JP7245478B1 (en) 2021-09-30 2021-09-30 CONTENT GENERATION METHOD, CONTENT PROVISION METHOD, AND THEREOF PROGRAM

Country Status (1)

Country Link
JP (1) JP7245478B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583952A (en) 2018-11-28 2019-04-05 深圳前海微众银行股份有限公司 Advertising Copy processing method, device, equipment and computer readable storage medium
JP2020021393A (en) 2018-08-03 2020-02-06 Kddi株式会社 Production support program, device, and method capable of providing support information for supporting creation or selection of product
JP2020510274A (en) 2017-03-24 2020-04-02 モーティブメトリックス インコーポレイテッド Automated systems and methods for creating machine-generated advertisements

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020510274A (en) 2017-03-24 2020-04-02 モーティブメトリックス インコーポレイテッド Automated systems and methods for creating machine-generated advertisements
JP2020021393A (en) 2018-08-03 2020-02-06 Kddi株式会社 Production support program, device, and method capable of providing support information for supporting creation or selection of product
CN109583952A (en) 2018-11-28 2019-04-05 深圳前海微众银行股份有限公司 Advertising Copy processing method, device, equipment and computer readable storage medium

Also Published As

Publication number Publication date
JP2023050264A (en) 2023-04-11

Similar Documents

Publication Publication Date Title
Pantano et al. Making sense of consumers’ tweets: Sentiment outcomes for fast fashion retailers through Big Data analytics
JP7400334B2 (en) Generation device and generation program
CN110325986B (en) Article processing method, article processing device, server and storage medium
JP2019049980A (en) Method and system for combining user, item, and review representation for recommender system
US11720761B2 (en) Systems and methods for intelligent routing of source content for translation services
US11694018B2 (en) Machine-learning based generation of text style variations for digital content items
Rajaram et al. Video influencers: Unboxing the mystique
US20190251476A1 (en) Reducing redundancy and model decay with embeddings
CN109189919B (en) Method, system, terminal and storage medium for text multi-view emotion classification
Ayoub et al. Analyzing customer needs of product ecosystems using online product reviews
US20240256311A1 (en) Conversational Interface for Content Creation and Editing Using Large Language Models
CN115345669A (en) Method and device for generating file, storage medium and computer equipment
De Cnudde et al. Deep learning on big, sparse, behavioral data
Kim et al. From intuition to intelligence: a text mining–based approach for movies' green-lighting process
JP7245478B1 (en) CONTENT GENERATION METHOD, CONTENT PROVISION METHOD, AND THEREOF PROGRAM
KR102210772B1 (en) Apparatus and method for classfying user's gender identity based on online data
KR102557299B1 (en) A method of creating the right marketing strategy for your users
Fergus et al. Natural language processing
Hussain et al. A Novel Data Extraction Framework Using Natural Language Processing (DEFNLP) Techniques
TWI795001B (en) Content generation method, content delivery method, content generation program and content delivery program
Shiebler et al. Fighting redundancy and model decay with embeddings
JP7396762B1 (en) Information processing system, information processing method, and program
US11682050B2 (en) Audience generation using psychographic data
JP7273107B2 (en) Information processing device, information processing method and information processing program
US20240291785A1 (en) Scraping emails to determine patentable ideas

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230303

R150 Certificate of patent or registration of utility model

Ref document number: 7245478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533