JP7296387B2 - コンテンツ生成の方法及び装置 - Google Patents
コンテンツ生成の方法及び装置 Download PDFInfo
- Publication number
- JP7296387B2 JP7296387B2 JP2020534916A JP2020534916A JP7296387B2 JP 7296387 B2 JP7296387 B2 JP 7296387B2 JP 2020534916 A JP2020534916 A JP 2020534916A JP 2020534916 A JP2020534916 A JP 2020534916A JP 7296387 B2 JP7296387 B2 JP 7296387B2
- Authority
- JP
- Japan
- Prior art keywords
- phrase
- content
- product
- description information
- past
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 63
- 239000013598 vector Substances 0.000 claims description 112
- 238000012549 training Methods 0.000 claims description 64
- 238000003062 neural network model Methods 0.000 claims description 56
- 238000013135 deep learning Methods 0.000 claims description 17
- 230000007246 mechanism Effects 0.000 claims description 16
- 230000006399 behavior Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 6
- 230000004044 response Effects 0.000 claims 6
- 230000008569 process Effects 0.000 description 23
- 230000000875 corresponding effect Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 238000010422 painting Methods 0.000 description 7
- 230000003796 beauty Effects 0.000 description 6
- ORQBXQOJMQIAOY-UHFFFAOYSA-N nobelium Chemical compound [No] ORQBXQOJMQIAOY-UHFFFAOYSA-N 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 4
- 229910000838 Al alloy Inorganic materials 0.000 description 3
- 238000000137 annealing Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 229920000742 Cotton Polymers 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 2
- 240000000411 Sansevieria trifasciata Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- -1 4-piece set Polymers 0.000 description 1
- 241000723438 Cercidiphyllum japonicum Species 0.000 description 1
- 240000000987 Monstera deliciosa Species 0.000 description 1
- 235000002790 Monstera deliciosa Nutrition 0.000 description 1
- 235000000139 Musa basjoo Nutrition 0.000 description 1
- 240000000569 Musa basjoo Species 0.000 description 1
- 241000349681 Parathelypteris glanduligera Species 0.000 description 1
- 244000104275 Phoenix dactylifera Species 0.000 description 1
- 235000010659 Phoenix dactylifera Nutrition 0.000 description 1
- 241000218657 Picea Species 0.000 description 1
- 240000000214 Polyscias fruticosa Species 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000002609 medium Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000006152 selective media Substances 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0276—Advertisement creation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0277—Online advertisement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0613—Third-party assisted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Marketing (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Primary Health Care (AREA)
- Human Resources & Organizations (AREA)
- Tourism & Hospitality (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
Description
[001] 本開示は、その全体が本明細書に援用される、2017年12月29日に出願された中国特許出願第201711473163.1号に対する優先権の利益を主張するものである。
[002] デジタル時代では、例えば、ソーシャルメディア、選択メディア、及びニュースアプリで提供されるデジタルコンテンツの使用が、極めて顕著となっている。そして、デジタルコンテンツのマーケットシェアが(新聞などの物理的コンテンツと比較して)、今後増加し続けると予想される。従って、コンテンツの量も引き続き増加し続け得る。対象視聴者のニーズに合う情報を効果的に伝えるために、配布用の大量の多様な創造的コンテンツを迅速に作成する必要がある。
[003] 本出願の実施形態の目的は、ターゲット製品のコンテンツを迅速に生成することができる文書生成の方法及び装置を提供することである。
[007] 本出願の実施形態又は先行技術における技術的解決策をより明瞭に説明するために、これらの実施形態又は先行技術を説明するために必要とされる添付の図面を以下に簡単に紹介する。以下で説明する添付の図面が本出願の一部の実施形態に過ぎないこと、及び当業者がこれらの添付の図面からさらに他の図面を創造的努力なしに導き出し得ることが明らかである。
[015] 本出願における技術的解決策を当業者がより良く理解できるようにするために、本出願の実施形態における技術的解決策を本出願の実施形態における添付の図面を参照して明確且つ完全に説明する。説明する実施形態は、本出願の全ての実施形態ではなく一部に過ぎないことは明らかである。本出願の実施形態に基づいて、創造的な努力なしに当業者によって導き出される全ての他の実施形態が、本出願の保護範囲に全て入るものとする。
Claims (30)
- 製品説明情報を獲得することと、
深層ニューラルネットワークモデルコンポーネントを使用して、前記製品説明情報に合致したコンテンツフレーズを選択することであって、前記深層ニューラルネットワークモデルコンポーネントが、複数の過去の製品説明情報及び前記過去の製品説明情報の過去のコンテンツに応じた訓練により取得されることと、
前記選択されたコンテンツフレーズに基づいて、前記製品説明情報に対応したコンテンツを生成することと、
を含む、コンテンツ生成方法。 - 前記深層ニューラルネットワークモデルコンポーネントが、
過去の製品説明情報及び前記過去の製品説明情報に関連付けられた過去のコンテンツを獲得することと、
前記過去の製品説明情報及び前記過去のコンテンツに基づいて、訓練パラメータを生成することと、
前記訓練パラメータによって前記深層ニューラルネットワークモデルコンポーネントを訓練することと、
によって訓練される、請求項1に記載の方法。 - 前記過去の製品説明情報と前記過去のコンテンツとに基づいて、前記訓練パラメータを生成することが、
前記過去の製品説明情報から少なくとも1つの製品フレーズを抽出することによって、過去の製品フレーズシーケンスを生成することと、
前記過去のコンテンツから少なくとも1つのコンテンツフレーズを抽出することによって、過去のコンテンツフレーズシーケンスを生成することと、
入力として前記過去の製品フレーズシーケンスを使用し、及び出力として前記過去のコンテンツフレーズシーケンスを使用して、前記訓練パラメータを調節することと、
をさらに含む、請求項2に記載の方法。 - 前記深層ニューラルネットワークモデルコンポーネントが、Sequence to Sequence (seq2seq)モデルコンポーネント、並びにSequence to Sequence及びAttention機構(seq2seq及びAttention機構)モデルコンポーネントの少なくとも一方を含む、請求項3に記載の方法。
- 前記製品説明情報に合致した前記コンテンツフレーズを選択することが、
前記製品説明情報から少なくとも1つの製品フレーズを抽出することと、
前記製品フレーズを製品フレーズベクトルに変換することと、
前記製品フレーズベクトルに基づいて、製品フレーズベクトルシーケンスを生成することと、
前記深層ニューラルネットワークモデルコンポーネントを用いて、前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて、少なくとも1つのコンテンツフレーズを取得することと、
を含む、請求項2に記載の方法。 - 前記深層ニューラルネットワークモデルコンポーネントを用いて、前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて、前記少なくとも1つのコンテンツフレーズを取得することが、
前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて第1のコンテンツフレーズベクトルを生成することと、
前記コンテンツフレーズベクトルと前記製品フレーズベクトルとの間の相関度を決定することと、
第2のコンテンツフレーズベクトルのために、前記相関度に応じて前記製品フレーズベクトルの重み値を決定することと、
をさらに含む、請求項5に記載の方法。 - 前記seq2seq及びAttention機構モデルコンポーネントが、エンコーダ及びデコーダを含み、前記訓練パラメータによって前記深層ニューラルネットワークモデルコンポーネントを訓練することが、
前記デコーダによって生成される出力フレーズ及び前記出力フレーズと合致した過去の製品フレーズを獲得することと、
前記出力フレーズの再使用確率及び生成確率を決定することと、
前記再使用確率が前記生成確率よりも大きい場合に、前記デコーダの後続の出力フレーズとして、前記過去の製品フレーズの後続のフレーズを使用することと、
をさらに含む、請求項4に記載の方法。 - 前記選択されたコンテンツフレーズに基づいて、前記製品説明情報に対応した前記コンテンツを生成することが、
前記選択されたコンテンツフレーズを言語モデルに入力することと、
前記言語モデルの予め設定された言語ルールに適合する前記コンテンツを生成することと、
をさらに含む、請求項1~7の何れか一項に記載の方法。 - 前記コンテンツを表示することをさらに含む、請求項1~8の何れか一項に記載の方法。
- 前記表示されたコンテンツに関するユーザの操作挙動を獲得することと、
深層学習のために前記操作挙動を前記深層ニューラルネットワークモデルコンポーネントにフィードバックすることと、
をさらに含む、請求項9に記載の方法。 - コンテンツ生成装置であって、
命令のセットを保存するメモリと、
前記命令のセットを実行して、前記装置に、
製品説明情報を獲得することと、
深層ニューラルネットワークモデルコンポーネントを使用して、前記製品説明情報に合致したコンテンツフレーズを選択することであって、前記深層ニューラルネットワークモデルコンポーネントが、複数の過去の製品説明情報及び前記過去の製品説明情報の過去のコンテンツに応じた訓練により取得されることと、
前記選択されたコンテンツフレーズに基づいて、前記製品説明情報に対応したコンテンツを生成することと、
を行わせるように構成された少なくとも1つのプロセッサと、
を含む、コンテンツ生成装置。 - 前記深層ニューラルネットワークモデルコンポーネントが、
過去の製品説明情報及び前記過去の製品説明情報に関連付けられた過去のコンテンツを獲得することと、
前記過去の製品説明情報と前記過去のコンテンツとに基づいて、訓練パラメータを生成することと、
前記訓練パラメータによって前記深層ニューラルネットワークモデルコンポーネントを訓練することと、
によって訓練される、請求項11に記載の装置。 - 前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記過去の製品説明情報から少なくとも1つの製品フレーズを抽出することによって、過去の製品フレーズシーケンスを生成することと、
前記過去のコンテンツから少なくとも1つのコンテンツフレーズを抽出することによって、過去のコンテンツフレーズシーケンスを生成することと、
入力として前記過去の製品フレーズシーケンスを使用し、及び出力として前記過去のコンテンツフレーズシーケンスを使用して、前記訓練パラメータを調節することと、
を行わせるようにさらに構成される、請求項12に記載の装置。 - 前記深層ニューラルネットワークモデルコンポーネントが、Sequence to Sequence (seq2seq)モデルコンポーネント、並びにSequence to Sequence及びAttention機構(seq2seq及びAttention機構)モデルコンポーネントの少なくとも一方を含む、請求項13に記載の装置。
- 前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記製品説明情報から少なくとも1つの製品フレーズを抽出することと、
前記製品フレーズを製品フレーズベクトルに変換することと、
前記製品フレーズベクトルに基づいて、製品フレーズベクトルシーケンスを生成することと、
前記深層ニューラルネットワークモデルコンポーネントを用いて、前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて、少なくとも1つのコンテンツフレーズを取得することと、
を行わせるようにさらに構成される、請求項12に記載の装置。 - 前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて第1のコンテンツフレーズベクトルを生成することと、
前記コンテンツフレーズベクトルと前記製品フレーズベクトルとの間の相関度を決定することと、
第2のコンテンツフレーズベクトルのために、前記相関度に応じて前記製品フレーズベクトルの重み値を決定することと、
を行わせるようにさらに構成される、請求項15に記載の装置。 - 前記seq2seq及びAttention機構モデルコンポーネントが、エンコーダ及びデコーダを含み、前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記デコーダによって生成される出力フレーズ及び前記出力フレーズと合致した過去の製品フレーズを獲得することと、
前記出力フレーズの再使用確率及び生成確率を決定することと、
前記再使用確率が前記生成確率よりも大きい場合に、前記デコーダの後続の出力フレーズとして、前記過去の製品フレーズの後続のフレーズを使用することと、
を行わせるようにさらに構成される、請求項14に記載の装置。 - 前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記選択されたコンテンツフレーズを言語モデルに入力することと、
前記言語モデルの予め設定された言語ルールに適合する前記コンテンツを生成することと、
を行わせるようにさらに構成される、請求項11~17の何れか一項に記載の装置。 - 前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記コンテンツを表示することを行わせるようにさらに構成される、請求項11~18の何れか一項に記載の装置。 - 前記少なくとも1つのプロセッサが、前記命令のセットを実行して、前記装置に、
前記表示されたコンテンツに関するユーザの操作挙動を獲得することと、
深層学習のために前記操作挙動を前記深層ニューラルネットワークモデルコンポーネントにフィードバックすることと、
を行わせるようにさらに構成される、請求項19に記載の装置。 - コンピュータシステムにコンテンツ生成方法を行わせるように前記コンピュータシステムの少なくとも1つのプロセッサによって実行可能な命令のセットを保存する非一時的コンピュータ可読媒体であって、前記方法が、
製品説明情報を獲得することと、
深層ニューラルネットワークモデルコンポーネントを使用して、前記製品説明情報に合致したコンテンツフレーズを選択することであって、前記深層ニューラルネットワークモデルコンポーネントが、複数の過去の製品説明情報及び前記過去の製品説明情報の過去のコンテンツに応じた訓練により取得されることと、
前記選択されたコンテンツフレーズに基づいて、前記製品説明情報に対応したコンテンツを生成することと、
を含む、非一時的コンピュータ可読媒体。 - 前記深層ニューラルネットワークモデルコンポーネントが、
過去の製品説明情報及び前記過去の製品説明情報に関連付けられた過去のコンテンツを獲得することと、
前記過去の製品説明情報と前記過去のコンテンツとに基づいて、訓練パラメータを生成することと、
前記訓練パラメータによって前記深層ニューラルネットワークモデルコンポーネントを訓練することと、
によって訓練される、請求項21に記載の非一時的コンピュータ可読媒体。 - 前記過去の製品説明情報と前記過去のコンテンツとに基づいて、前記訓練パラメータを生成することが、
前記過去の製品説明情報から少なくとも1つの製品フレーズを抽出することによって、過去の製品フレーズシーケンスを生成することと、
前記過去のコンテンツから少なくとも1つのコンテンツフレーズを抽出することによって、過去のコンテンツフレーズシーケンスを生成することと、
入力として前記過去の製品フレーズシーケンスを使用し、及び出力として前記過去のコンテンツフレーズシーケンスを使用して、前記訓練パラメータを調節することと、
をさらに含む、請求項22に記載の非一時的コンピュータ可読媒体。 - 前記深層ニューラルネットワークモデルコンポーネントが、Sequence to Sequence (seq2seq)モデルコンポーネント、並びにSequence to Sequence及びAttention機構(seq2seq及びAttention機構)モデルコンポーネントの少なくとも一方を含む、請求項23に記載の非一時的コンピュータ可読媒体。
- 前記製品説明情報に合致した前記コンテンツフレーズを選択することが、
前記製品説明情報から少なくとも1つの製品フレーズを抽出することと、
前記製品フレーズを製品フレーズベクトルに変換することと、
前記製品フレーズベクトルに基づいて、製品フレーズベクトルシーケンスを生成することと、
前記深層ニューラルネットワークモデルコンポーネントを用いて、前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて、少なくとも1つのコンテンツフレーズを取得することと、
を含む、請求項22に記載の非一時的コンピュータ可読媒体。 - 前記深層ニューラルネットワークモデルコンポーネントを用いて、前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて、前記少なくとも1つのコンテンツフレーズを取得することが、
前記製品フレーズベクトルシーケンス及び前記訓練パラメータに応じて第1のコンテンツフレーズベクトルを生成することと、
前記コンテンツフレーズベクトルと前記製品フレーズベクトルとの間の相関度を決定することと、
第2のコンテンツフレーズベクトルのために、前記相関度に応じて前記製品フレーズベクトルの重み値を決定することと、
をさらに含む、請求項25に記載の非一時的コンピュータ可読媒体。 - 前記seq2seq及びAttention機構モデルコンポーネントが、エンコーダ及びデコーダを含み、前記訓練パラメータによって前記深層ニューラルネットワークモデルコンポーネントを訓練することが、
前記デコーダによって生成される出力フレーズ及び前記出力フレーズと合致した過去の製品フレーズを獲得することと、
前記出力フレーズの再使用確率及び生成確率を決定することと、
前記再使用確率が前記生成確率よりも大きい場合に、前記デコーダの後続の出力フレーズとして、前記過去の製品フレーズの後続のフレーズを使用することと、
をさらに含む、請求項24に記載の非一時的コンピュータ可読媒体。 - 前記選択されたコンテンツフレーズに基づいて、前記製品説明情報に対応した前記コンテンツを生成することが、
前記選択されたコンテンツフレーズを言語モデルに入力することと、
前記言語モデルの予め設定された言語ルールに適合する前記コンテンツを生成することと、
をさらに含む、請求項21~27の何れか一項に記載の非一時的コンピュータ可読媒体。 - 前記命令のセットが、前記コンピュータシステムに、
前記コンテンツを表示することをさらに行わせるように前記コンピュータシステムの前記少なくとも1つのプロセッサによって実行可能である、請求項21~28の何れか一項に記載の非一時的コンピュータ可読媒体。 - 前記命令のセットが、前記コンピュータシステムに、
前記表示されたコンテンツに関するユーザの操作挙動を獲得することと、
深層学習のために前記操作挙動を前記深層ニューラルネットワークモデルコンポーネントにフィードバックすることと、
をさらに行わせるように前記コンピュータシステムの前記少なくとも1つのプロセッサによって実行可能である、請求項29に記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711473163.1A CN109992764B (zh) | 2017-12-29 | 2017-12-29 | 一种文案生成方法及装置 |
CN201711473163.1 | 2017-12-29 | ||
PCT/US2018/067382 WO2019133545A2 (en) | 2017-12-29 | 2018-12-21 | Content generation method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021508874A JP2021508874A (ja) | 2021-03-11 |
JP7296387B2 true JP7296387B2 (ja) | 2023-06-22 |
Family
ID=67059756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020534916A Active JP7296387B2 (ja) | 2017-12-29 | 2018-12-21 | コンテンツ生成の方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11663484B2 (ja) |
JP (1) | JP7296387B2 (ja) |
CN (1) | CN109992764B (ja) |
TW (1) | TW201931222A (ja) |
WO (1) | WO2019133545A2 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109992764B (zh) | 2017-12-29 | 2022-12-16 | 阿里巴巴集团控股有限公司 | 一种文案生成方法及装置 |
US11431741B1 (en) * | 2018-05-16 | 2022-08-30 | Exabeam, Inc. | Detecting unmanaged and unauthorized assets in an information technology network with a recurrent neural network that identifies anomalously-named assets |
WO2020162833A1 (en) * | 2019-02-07 | 2020-08-13 | Pencil Technologies Pte. Ltd. | Method and system for generating content data |
US11625366B1 (en) | 2019-06-04 | 2023-04-11 | Exabeam, Inc. | System, method, and computer program for automatic parser creation |
CN110427617B (zh) * | 2019-07-22 | 2020-09-08 | 阿里巴巴集团控股有限公司 | 推送信息的生成方法及装置 |
US11176330B2 (en) | 2019-07-22 | 2021-11-16 | Advanced New Technologies Co., Ltd. | Generating recommendation information |
CN110532463A (zh) * | 2019-08-06 | 2019-12-03 | 北京三快在线科技有限公司 | 推荐理由生成装置及方法、存储介质以及电子设备 |
CN112577161B (zh) * | 2019-09-30 | 2022-05-27 | 北京国双科技有限公司 | 空调能耗模型训练方法与空调系统控制方法 |
CN112685555B (zh) * | 2019-10-17 | 2023-04-18 | 中国移动通信集团浙江有限公司 | 投诉工单质量检测方法及装置 |
CN110781394A (zh) * | 2019-10-24 | 2020-02-11 | 西北工业大学 | 一种基于多源群智数据的个性化商品描述生成方法 |
CN110990385A (zh) * | 2019-11-26 | 2020-04-10 | 昆明信息港传媒有限责任公司 | 一套基于Sequence2Sequence的自动生成新闻标题的软件 |
CN112862558B (zh) * | 2019-11-28 | 2024-03-01 | 阿里巴巴集团控股有限公司 | 产品详情页面的生成方法和系统、数据处理方法 |
CN111178018B (zh) * | 2019-12-30 | 2024-03-26 | 苏宁云计算有限公司 | 一种基于深度学习的目标软文的生成方法及装置 |
CN111178056A (zh) * | 2020-01-02 | 2020-05-19 | 苏宁云计算有限公司 | 基于深度学习的文案生成方法、装置及电子设备 |
CN111274764B (zh) * | 2020-01-23 | 2021-02-23 | 北京百度网讯科技有限公司 | 语言生成方法、装置、计算机设备及存储介质 |
CN111581923A (zh) * | 2020-04-29 | 2020-08-25 | 北京字节跳动网络技术有限公司 | 文案生成方法、装置、设备和计算机可读存储介质 |
CN111581926B (zh) * | 2020-05-15 | 2023-09-01 | 抖音视界有限公司 | 文案生成方法、装置、设备和计算机可读存储介质 |
US11956253B1 (en) | 2020-06-15 | 2024-04-09 | Exabeam, Inc. | Ranking cybersecurity alerts from multiple sources using machine learning |
CN111782784B (zh) * | 2020-06-24 | 2023-09-29 | 京东科技控股股份有限公司 | 一种文案生成方法、装置、电子设备及存储介质 |
CN112434493A (zh) * | 2020-11-04 | 2021-03-02 | 北京沃东天骏信息技术有限公司 | 一种文案生成方法、装置、电子设备和存储介质 |
CN112529615A (zh) * | 2020-11-30 | 2021-03-19 | 北京百度网讯科技有限公司 | 自动生成广告的方法、装置、设备和计算机可读存储介质 |
CN112508612B (zh) * | 2020-12-11 | 2024-02-27 | 北京搜狗科技发展有限公司 | 训练广告创意生成模型、生成广告创意的方法及相关装置 |
CN112822647B (zh) * | 2020-12-30 | 2022-11-25 | 平安普惠企业管理有限公司 | 短信发送方法、装置、存储介质和计算机设备 |
CN112989205A (zh) * | 2021-04-14 | 2021-06-18 | 北京有竹居网络技术有限公司 | 媒体文案推荐方法、装置、介质及电子设备 |
CN113420217A (zh) * | 2021-06-25 | 2021-09-21 | 北京三快在线科技有限公司 | 生成文案的方法、装置、电子设备和计算机可读存储介质 |
CN114547266B (zh) * | 2022-02-21 | 2023-06-30 | 北京百度网讯科技有限公司 | 信息生成模型的训练方法、生成信息的方法、装置和设备 |
CN114722188A (zh) * | 2022-06-09 | 2022-07-08 | 北京鑫宇创世科技有限公司 | 基于运营数据的广告生成方法、装置、设备及存储介质 |
CN115455306B (zh) * | 2022-11-11 | 2023-02-07 | 腾讯科技(深圳)有限公司 | 推送模型训练、信息推送方法、装置和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080065620A1 (en) | 2006-09-11 | 2008-03-13 | Puneet Chopra | Recommending advertising key phrases |
JP2016004301A (ja) | 2014-06-13 | 2016-01-12 | ヤフー株式会社 | 広告生成装置、広告生成方法、及び広告生成プログラム |
JP2017167586A (ja) | 2016-03-14 | 2017-09-21 | 株式会社エフォートサイエンス | 広告提案システム、プログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6266664B1 (en) * | 1997-10-01 | 2001-07-24 | Rulespace, Inc. | Method for scanning, analyzing and rating digital information content |
US7996753B1 (en) * | 2004-05-10 | 2011-08-09 | Google Inc. | Method and system for automatically creating an image advertisement |
US8171021B2 (en) * | 2008-06-23 | 2012-05-01 | Google Inc. | Query identification and association |
US20130117107A1 (en) * | 2011-11-05 | 2013-05-09 | Jon C. Evans | System and method for building advertisements from imported data |
US20150081477A1 (en) * | 2012-04-20 | 2015-03-19 | Nec Corporation | Search query analysis device, search query analysis method, and computer-readable recording medium |
US20150058119A1 (en) * | 2013-08-22 | 2015-02-26 | SocialWire, Inc. | Automated Advertisement of Products on Online Sites |
WO2015039165A1 (en) * | 2013-09-19 | 2015-03-26 | Longtail Ux Pty Ltd | Improvements in website traffic optimization |
CN104951468A (zh) * | 2014-03-28 | 2015-09-30 | 阿里巴巴集团控股有限公司 | 数据搜索处理方法和系统 |
US10264081B2 (en) * | 2015-04-28 | 2019-04-16 | Microsoft Technology Licensing, Llc | Contextual people recommendations |
US10395118B2 (en) * | 2015-10-29 | 2019-08-27 | Baidu Usa Llc | Systems and methods for video paragraph captioning using hierarchical recurrent neural networks |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US9424494B1 (en) * | 2016-01-28 | 2016-08-23 | International Business Machines Corporation | Pure convolutional neural network localization |
CN105930314B (zh) * | 2016-04-14 | 2019-02-05 | 清华大学 | 基于编码-解码深度神经网络的文本摘要生成系统及方法 |
US9858263B2 (en) * | 2016-05-05 | 2018-01-02 | Conduent Business Services, Llc | Semantic parsing using deep neural networks for predicting canonical forms |
US10565498B1 (en) * | 2017-02-28 | 2020-02-18 | Amazon Technologies, Inc. | Deep neural network-based relationship analysis with multi-feature token model |
KR102469717B1 (ko) * | 2017-08-01 | 2022-11-22 | 삼성전자주식회사 | 오브젝트에 대한 검색 결과를 제공하기 위한 전자 장치 및 이의 제어 방법 |
KR102037419B1 (ko) * | 2017-09-05 | 2019-10-28 | 삼성전자주식회사 | 영상 표시 장치 및 그 동작 방법 |
CN109992764B (zh) | 2017-12-29 | 2022-12-16 | 阿里巴巴集团控股有限公司 | 一种文案生成方法及装置 |
US11106690B1 (en) * | 2018-02-20 | 2021-08-31 | A9.Com, Inc. | Neural query auto-correction and completion |
US20210201351A1 (en) * | 2019-12-30 | 2021-07-01 | Walmart Apollo, Llc | Methods and apparatus for electronically determining items to advertise |
-
2017
- 2017-12-29 CN CN201711473163.1A patent/CN109992764B/zh active Active
-
2018
- 2018-10-22 TW TW107137180A patent/TW201931222A/zh unknown
- 2018-12-21 US US16/231,362 patent/US11663484B2/en active Active
- 2018-12-21 JP JP2020534916A patent/JP7296387B2/ja active Active
- 2018-12-21 WO PCT/US2018/067382 patent/WO2019133545A2/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080065620A1 (en) | 2006-09-11 | 2008-03-13 | Puneet Chopra | Recommending advertising key phrases |
JP2016004301A (ja) | 2014-06-13 | 2016-01-12 | ヤフー株式会社 | 広告生成装置、広告生成方法、及び広告生成プログラム |
JP2017167586A (ja) | 2016-03-14 | 2017-09-21 | 株式会社エフォートサイエンス | 広告提案システム、プログラム |
Non-Patent Citations (2)
Title |
---|
"AIコピーライター"、電通が開発 広告コピーを自動生成,[online],ITmedia,2017年05月18日,https://www.itmedia.co.jp/news/articles/1705/18/news141.html |
馬場 惇,検索連動型広告におけるテキスト自動生成とその評価指標の検討,2015年度人工知能学会全国大会論文集 [CD-ROM],3M3-5,2015年06月02日,pp.1-4 |
Also Published As
Publication number | Publication date |
---|---|
US20190205750A1 (en) | 2019-07-04 |
WO2019133545A2 (en) | 2019-07-04 |
CN109992764A (zh) | 2019-07-09 |
US11663484B2 (en) | 2023-05-30 |
CN109992764B (zh) | 2022-12-16 |
TW201931222A (zh) | 2019-08-01 |
WO2019133545A3 (en) | 2020-03-26 |
JP2021508874A (ja) | 2021-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7296387B2 (ja) | コンテンツ生成の方法及び装置 | |
US11188831B2 (en) | Artificial intelligence system for real-time visual feedback-based refinement of query results | |
JP6543986B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20180336193A1 (en) | Artificial Intelligence Based Method and Apparatus for Generating Article | |
US8725717B2 (en) | System and method for identifying topics for short text communications | |
JP5449628B2 (ja) | マルチステージを使用したカテゴリ情報の決定 | |
WO2020020137A1 (zh) | 商品推荐方法、装置、系统及计算机可读存储介质 | |
CN105069143B (zh) | 提取文档中关键词的方法及装置 | |
CN105956011B (zh) | 搜索方法及装置 | |
WO2019055559A1 (en) | METHOD AND APPARATUS FOR TITLE RECONSTRUCTION | |
CN107766349B (zh) | 一种生成文本的方法、装置、设备及客户端 | |
CN110827112B (zh) | 深度学习的商品推荐方法、装置、计算机设备及存储介质 | |
WO2017088496A1 (zh) | 一种搜索推荐方法、装置、设备及计算机存储介质 | |
CN112330455A (zh) | 用于推送信息的方法、装置、设备以及存储介质 | |
JP2015525418A (ja) | 検索方法および装置 | |
JP6680026B2 (ja) | 情報処理装置及びプログラム | |
CN116034401A (zh) | 用于使用自然语言描述检索视频的系统和方法 | |
CN111209725B (zh) | 一种文本信息生成方法、装置以及计算设备 | |
US20220284187A1 (en) | Language model based writing aid method, device and system | |
CN110019662B (zh) | 一种标签重建方法及装置 | |
JP7282014B2 (ja) | ワークショップ支援システム及びワークショップ支援方法 | |
JP6933623B2 (ja) | 特徴ベクトル生成装置、特徴ベクトル生成方法及び特徴ベクトル生成プログラム | |
CN110119461B (zh) | 一种查询信息的处理方法及装置 | |
CN112184250B (zh) | 挽回页的生成方法、装置、存储介质和计算机设备 | |
CN111797622B (zh) | 用于生成属性信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230612 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7296387 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |