JP2023050264A - コンテンツ生成方法、コンテンツ提供方法、及びそのプログラム - Google Patents
コンテンツ生成方法、コンテンツ提供方法、及びそのプログラム Download PDFInfo
- Publication number
- JP2023050264A JP2023050264A JP2021160290A JP2021160290A JP2023050264A JP 2023050264 A JP2023050264 A JP 2023050264A JP 2021160290 A JP2021160290 A JP 2021160290A JP 2021160290 A JP2021160290 A JP 2021160290A JP 2023050264 A JP2023050264 A JP 2023050264A
- Authority
- JP
- Japan
- Prior art keywords
- content
- model
- type
- trained
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 94
- 238000013528 artificial neural network Methods 0.000 claims abstract description 89
- 238000006243 chemical reaction Methods 0.000 claims abstract description 51
- 238000010801 machine learning Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 20
- 210000002569 neuron Anatomy 0.000 description 15
- 230000008569 process Effects 0.000 description 13
- 230000014509 gene expression Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000010365 information processing Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000013480 data collection Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
ステップS103:タスク予測学習データによって、コンバージョンレートを予測するための事前学習済NN(ニューラルネットワーク)モデルのファインチューニングを行う;
ステップS105:タスク学習データの文章から抽出した書き出しをファインチューニング済GPTモデルに与えて、文章を生成させる;
ステップS107:ステップS105で生成した文章を、ファインチューニング済BERTモデルに入力して分散表現を取り出し、コサイン類似度が高いものを基礎コンテンツ(基礎文章)として抽出する;
ステップS109:ステップS107で抽出した基礎文章をファインチューニング済BERTモデルに入力し単語をランダムに隠し代わりの候補を挙げて推敲文章を生成する;
ステップS111:ファインチューニング済NNモデルによって、ステップS109に生成した推敲文章のコンバージョンレートを予測して、コンバージョンレートが上昇する推敲コンテンツ(推敲文章)の候補のみを残してファインチューニング済BERTモデルにフィードバックする;
ステップS113:ステップS111において、推敲文章のコンバージョンレートの上昇が収束したかを判断し、コンバージョンレートの上昇が収束したと判断する場合、ステップS115に移行し、コンバージョンレートの上昇が収束していないと判断する場合、ステップS109に戻す。
ステップS115:推敲文章を配布用コンテンツ(配布用文章)として出力する。
まず、クライアントに用意されたアンケートを取って、訴求情報を取得する。
そして、訴求情報をインターネットで検索して表示される上位10サイトの文章を取得し、訴求情報、一定時間帯内(例えば、行う時点から2か月前まで)の過去のシナリオデータと共に、タスク学習データとしてまとめる。
タスク学習データによって、事前学習済GPTモデル及び事前学習済BERTモデルのファインチューニングを行う。
最新のタスク予測学習データによって、コンバージョンレートを予測するための事前学習済NNモデルのファインチューニングを行う。
ファインチューニング済GPTモデルに、タスク学習データの文章の書き出し(5-10字)を与えて、自動で文章を生成させる。
ファインチューニング済GPTモデルが作成した文章のうち、訴求情報の文章に近いものを選択して、基礎文章とする。この選択は、ファインチューニング済BERTモデルの分散表現を使い、コサイン類似度が高いものを選ぶ。
基礎文章において、単語をランダムに隠してファインチューニング済BERTモデルが代わりの候補を挙げる推敲を実行し、ファインチューニング済NNモデルがコンバージョンレートを予測することでコンバージョンレートを高める候補のみを残し、ファインチューニング済BERTモデルにフィードバックして推敲を再実行する。
予測されるコンバージョンレートの上昇が収束するまで、上記の推敲とフィードバックを繰り返す。そのように推敲された文章を配布用文章として生成し、プロセスを終了する。
以上のプロセスにより、複数の配布用文章を生成することができる。
ステップS1003:ユーザータイプタスク予測学習データによって、ターゲットユーザーにCVしやすい文章のタイプを予測するための事前学習済ユーザー予測NNモデルのファインチューニングを行う;
ステップS1005:ファインチューニング済タイプ予測NNモデルに、予測しようとする配布用文章を入力し、配布用文章のタイプを予測して、タイプを配布用文章に対応付ける;
ステップS1007:ファインチューニング済ユーザー予測NNモデルに、ターゲットユーザーデータを入力し、ターゲットユーザーにCVしやすい配布用文章のタイプを予測して、タイプをターゲットユーザーに対応付ける;
ステップS1009:各配布用文章をそれに対応付けたタイプに応じて、各ターゲットユーザーに提供する;
最新の文章タイプタスク予測学習データ及びユーザータイプタスク予測学習データを学習データとして、事前学習済タイプ予測NNモデル及び事前学習済ユーザー予測NNモデルのファインチューニングを行う。
配布用文章を送信するターゲットを選ぶために、ファインチューニング済タイプ予測NNモデル及びファインチューニング済ユーザー予測NNモデルを使って、各ターゲットユーザーが過去に選んだ選択肢からどの配布用文章を送信すると最もコンバージョンしやすいかを予測して選ぶ。
以上のプロセスにより選ばれた、それぞれのターゲットユーザーが最もコンバージョンしやすい配布用文章を、各ターゲットユーザーに送信する。
401 入力層
402 隠れ層
403 出力層
1100 タイプ予測NN
1101 入力層
1102 隠れ層
1103 出力層
1400 汎用マシン
1401 中央処理装置
1402 ROM
1403 RAM
1404 バス
1405 入力/出力インターフェース
1406 入力部
1407 出力部
1408 記憶部
1409 通信部
1410 ドライブ
1411 取り外し可能な媒体
ステップS103:タスク予測学習データによって、コンバージョンレートを予測するための事前学習済NN(ニューラルネットワーク)モデルのファインチューニングを行う;
ステップS105:タスク学習データの文章から抽出した書き出しをファインチューニング済GPTモデルに与えて、文章を生成させる;
ステップS107:ステップS105で生成した文章を、ファインチューニング済BERTモデルに入力して分散表現を取り出し、ステップS105で抽出する前のタスク学習データの文章の分散表現とのコサイン類似度が高いものを基礎コンテンツ(基礎文章)として抽出する;
ステップS109:ステップS107で抽出した基礎文章をファインチューニング済BERTモデルに入力し単語をランダムに隠し代わりの候補を挙げて推敲文章を生成する;
ステップS111:ファインチューニング済NNモデルによって、ステップS109に生成した推敲文章のコンバージョンレートを予測して、コンバージョンレートが上昇する推敲コンテンツ(推敲文章)の候補のみを残して、その候補を新たな基礎文章と見做してファインチューニング済BERTモデルにフィードバックする;
ステップS113:ステップS111において、推敲文章のコンバージョンレートの上昇が収束したかを判断し、コンバージョンレートの上昇が収束したと判断する場合、ステップS115に移行し、コンバージョンレートの上昇が収束していないと判断する場合、ステップS109に戻す。
ステップS115:推敲文章を配布用コンテンツ(配布用文章)として出力する。
Claims (10)
- 訴求情報を取得する取得ステップと、
タスク学習データで機械学習を実行した訓練済みのGPTモデルによって、前記訴求情報に基づいて基礎コンテンツを生成する基礎コンテンツ生成ステップと、
タスク学習データで機械学習を実行した訓練済みのBERTモデルによって前記基礎コンテンツにおける単語をランダムに隠して代わりの候補を挙げるように前記基礎コンテンツの推敲を行う推敲ステップと、
タスク予測学習データによって訓練した訓練済みのNN(ニューラルネットワーク)モデルで前記推敲ステップによる推敲した文章のコンバージョンレートを予測し、前記コンバージョンレートを高める前記候補のみを残して、前記推敲ステップにフィードバックするフィードバックステップと、
前記推敲ステップと前記フィードバックステップを繰り返して、コンバージョンレートの上昇が収束したコンテンツを配布用コンテンツとして生成する配布用コンテンツ生成ステップと、
をコンピューターに実行させることを特徴とする、コンテンツ生成方法。 - 前記タスク学習データは、チャットボットによるターゲット対象との会話内容を含む、過去のシナリオデータ、前記訴求情報、または前記訴求情報をネットワークで検索して得られたランキング上位のコンテンツを含む、請求項1に記載のコンテンツ生成方法。
- 前記NNモデルの訓練に事前学習済BERTモデルによるタスク予測学習データの分散表現が使用され、前記タスク予測学習データは、前記過去のシナリオデータとCV値の関連で構成されたデータである、請求項2に記載のコンテンツ生成方法。
- 前記タスク学習データは、インターネットから抽出したデータのうち、前記過去のシナリオデータとコサイン類似度が一定の閾値を超えたコンテンツを含む、請求項2に記載のコンテンツ生成方法。
- 前記タスク学習データは、インターネットから抽出したデータ、または予めデータベースに用意されたデータを含み、
前記過去のシナリオデータとコサイン類似度が一定の閾値を超えたコンテンツは、訓練済みのBERTモデルによってコンテンツのコサイン類似度の測定を行って抽出する、請求項4に記載のコンテンツ生成方法。 - 前記訴求情報は少なくとも訴求人が伝えたい思想を含むコンテンツ、及び伝えたいターゲット対象の統計性のデータを含む、請求項1~5の何れか1項に記載のコンテンツ生成方法。
- 前記配布用コンテンツは、チャットボットによる会話に使用されるメッセージ、またはプッシュ通知用メッセージである、請求項1~5の何れか1項に記載のコンテンツ生成方法。
- コンテンツのタイプを予測する訓練済みのNNモデルによって、請求項1~7の何れか1項に記載のコンテンツ生成方法で生成した配布用コンテンツのタイプを予測して、前述配布用コンテンツと予測されたタイプを対応付けるステップと、
ターゲット対象に対してコンバージョンしやすいコンテンツのタイプを予測する訓練済みのNNモデルによって、タスクとなるターゲット対象に対してコンバージョンしやすいコンテンツのタイプを予測して、前述ターゲット対象と予測されたタイプを対応付けるステップと、
前記対応付けたタイプに応じて、前記配布用コンテンツを対応的に前記ターゲット対象に提供するステップと、
をコンピューターに実行させることを特徴とするコンテンツ提供方法。 - 訴求情報を取得し、
タスク学習データで機械学習を実行した訓練済みのGPTモデルによって、前記訴求情報に基づいて基礎コンテンツを生成し、
タスク学習データで機械学習を実行した訓練済みのBERTモデルによって前記基礎コンテンツにおける単語をランダムに隠して代わりの候補を挙げるように前記基礎コンテンツの推敲を行い、
タスク予測学習データによって訓練した訓練済みのNN(ニューラルネットワーク)モデルによって、前記BERTモデルで推敲した文章のコンバージョンレートを予測し、該文章の前記コンバージョンレートを高める前記候補のみを残して、前記BERTモデルの推敲にフィードバックし、
前記BERTモデルの推敲とNNモデルのフィードバックステップを繰り返して、コンバージョンレートの上昇が収束したコンテンツを配布用コンテンツとして生成する、
処理をコンピューターに実行させることを特徴とするコンテンツ生成プログラム。 - コンテンツのタイプを予測する訓練済みのNNモデルによって、請求項9に記載のプログラムで生成した配布用コンテンツのタイプを予測して、前述配布用コンテンツと予測されたタイプを対応付けて、
ターゲット対象に対してコンバージョンしやすいコンテンツのタイプを予測する訓練済みのNNモデルによって、タスクとなるターゲット対象に対してコンバージョンしやすいコンテンツのタイプを予測して、前述ターゲット対象と予測されたタイプを対応付けて、
前記対応付けたタイプに応じて、前記配布用コンテンツを対応的に前記ターゲット対象に提供する、
処理をコンピューターに実行させることを特徴とするコンテンツ提供プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021160290A JP7245478B1 (ja) | 2021-09-30 | 2021-09-30 | コンテンツ生成方法、コンテンツ提供方法、及びそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021160290A JP7245478B1 (ja) | 2021-09-30 | 2021-09-30 | コンテンツ生成方法、コンテンツ提供方法、及びそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7245478B1 JP7245478B1 (ja) | 2023-03-24 |
JP2023050264A true JP2023050264A (ja) | 2023-04-11 |
Family
ID=85705730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021160290A Active JP7245478B1 (ja) | 2021-09-30 | 2021-09-30 | コンテンツ生成方法、コンテンツ提供方法、及びそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7245478B1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583952A (zh) * | 2018-11-28 | 2019-04-05 | 深圳前海微众银行股份有限公司 | 广告文案处理方法、装置、设备及计算机可读存储介质 |
JP2020021393A (ja) * | 2018-08-03 | 2020-02-06 | Kddi株式会社 | 制作物の作成又は選択を支援する支援情報を提供可能な制作支援プログラム、装置及び方法 |
JP2020510274A (ja) * | 2017-03-24 | 2020-04-02 | モーティブメトリックス インコーポレイテッド | 機械生成広告を作り出す自動システムおよび方法 |
-
2021
- 2021-09-30 JP JP2021160290A patent/JP7245478B1/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020510274A (ja) * | 2017-03-24 | 2020-04-02 | モーティブメトリックス インコーポレイテッド | 機械生成広告を作り出す自動システムおよび方法 |
JP2020021393A (ja) * | 2018-08-03 | 2020-02-06 | Kddi株式会社 | 制作物の作成又は選択を支援する支援情報を提供可能な制作支援プログラム、装置及び方法 |
CN109583952A (zh) * | 2018-11-28 | 2019-04-05 | 深圳前海微众银行股份有限公司 | 广告文案处理方法、装置、设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP7245478B1 (ja) | 2023-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pantano et al. | Making sense of consumers’ tweets: Sentiment outcomes for fast fashion retailers through Big Data analytics | |
US11188831B2 (en) | Artificial intelligence system for real-time visual feedback-based refinement of query results | |
Shankar et al. | An overview and empirical comparison of natural language processing (NLP) models and an introduction to and empirical application of autoencoder models in marketing | |
JP7400334B2 (ja) | 生成装置、及び生成プログラム | |
CN110325986B (zh) | 文章处理方法、装置、服务器及存储介质 | |
JP2019049980A (ja) | レコメンダシステム用にユーザ、アイテム、及びレビューの表現を組み合せる方法及びシステム | |
Mitra et al. | Helpfulness of online consumer reviews: A multi-perspective approach | |
US11720761B2 (en) | Systems and methods for intelligent routing of source content for translation services | |
US11694018B2 (en) | Machine-learning based generation of text style variations for digital content items | |
Ayoub et al. | Analyzing customer needs of product ecosystems using online product reviews | |
Khan et al. | Comparative analysis on Facebook post interaction using DNN, ELM and LSTM | |
CN115345669A (zh) | 文案生成方法、装置、存储介质及计算机设备 | |
Jeong | Identifying consumer preferences from user-generated content on Amazon. com by leveraging machine learning | |
KR102210772B1 (ko) | 온라인 데이터에 기반한 사용자 성 정체성 예측 장치 및 방법 | |
JP7245478B1 (ja) | コンテンツ生成方法、コンテンツ提供方法、及びそのプログラム | |
KR102557299B1 (ko) | 사용자를 위한 적합 마케팅 전략 수립 방법 | |
Fergus et al. | Natural language processing | |
Loukili et al. | Applications of Text Generation in Digital Marketing: a review | |
Hussain et al. | A Novel Data Extraction Framework Using Natural Language Processing (DEFNLP) Techniques | |
TWI795001B (zh) | 內容產生方法、內容提供方法、內容產生程式及內容提供程式 | |
Shiebler et al. | Fighting redundancy and model decay with embeddings | |
JP7396762B1 (ja) | 情報処理システム、情報処理方法、及びプログラム | |
JP7273107B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
Rajaram et al. | Influencer Videos: Unboxing the Mystique | |
US11682050B2 (en) | Audience generation using psychographic data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230303 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7245478 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |