TWI831432B - 行銷文案生成方法及其運算裝置 - Google Patents
行銷文案生成方法及其運算裝置 Download PDFInfo
- Publication number
- TWI831432B TWI831432B TW111140284A TW111140284A TWI831432B TW I831432 B TWI831432 B TW I831432B TW 111140284 A TW111140284 A TW 111140284A TW 111140284 A TW111140284 A TW 111140284A TW I831432 B TWI831432 B TW I831432B
- Authority
- TW
- Taiwan
- Prior art keywords
- training
- speech
- copy
- model
- words
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000012545 processing Methods 0.000 claims abstract description 38
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 21
- 230000007704 transition Effects 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims description 141
- 238000012546 transfer Methods 0.000 claims description 13
- 238000010801 machine learning Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000008520 organization Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 235000015243 ice cream Nutrition 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
一種用於產生行銷文案的運算裝置,包含一儲存模組及一處理模組,該儲存模組用於儲存一包含一轉移機率表及一狀態機率表的隱藏式馬可夫模型,該轉移機率表包含多個第一詞彙、多個第二詞彙及多個轉移機率值,該狀態機率表包含該等第二詞彙、多個觀察詞性及多個隸屬機率值,且該處理模組獲得一欲生成詞性序列,該欲生成詞性序列依序由多個詞性所組成,且根據該欲生成詞性序列及該隱藏式馬可夫模型,利用一維特比解碼演算法產生多個行銷文案,每一行銷文案由多個分別符合該欲生成詞性序列之該等詞性的目標詞彙所組成。
Description
本發明是有關於一種文案生成方法,特別是指一種相關於隱藏式馬可夫模型的行銷文案產生方法及其運算裝置。
商業公司為了吸引消費者目光,時常需要擬定令人印象深刻的文宣或行銷文案,且在撰寫行銷文案前,首先需思考欲吸引的目標族群,並試著站在目標族群的角度思考,其次是擬定吸睛的文案標題,為了要引起消費者好奇心,文案標題是否明確且新穎,亦是重要且不可或缺的一部份,再來是站在消費者的立場來介紹產品特色,告訴消費者能獲得什麼好處,可搭配故事,或提供真實情境來訴說,讓消費者想仔細閱讀文案內容,然後是在文案的結尾加上比如商品售價、時間、地點,及活動辦法等,促使消費者有行動的欲望,最後便是重新審視整體文案,確保文案的精確性,不可有過多贅字,及段落冗長,會使得消費者閱讀時感到吃力。
然而,現階段在產出行銷文案的方式是仰賴專家在閱讀大量的文案資料後,藉由靈感來產生符合需求的行銷文案,此舉不但要花費較多時間搜尋資料,亦是需要精力來閱讀吸收以獲得靈感,因此,勢必得提出一解決方案。
因此,本發明的目的,即在提供一種可自動化生成多個行銷文案的行銷文案產生方法。
於是,本發明行銷文案產生方法,藉由一運算裝置來實施,該運算裝置儲存有一包含一轉移機率表及一狀態機率表的隱藏式馬可夫模型,該轉移機率表包含多個第一詞彙、多個第二詞彙及每一第一詞彙相對於每一第二詞彙的轉移機率值,每一轉移機率值指示出所對應之第一詞彙其後出現所對應之第二詞彙的機率,該狀態機率表包含該等第二詞彙、多個觀察詞性及每一第二詞彙相對於每一觀察詞性的隸屬機率值,每一隸屬機率值指示出所對應之第二詞彙屬於所對應之觀察詞性的機率,該行銷文案產生方法包含以下步驟:
(A)獲得一欲生成詞性序列,該欲生成詞性序列依序由多個詞性所組成;及
(B)根據該欲生成詞性序列及該隱藏式馬可夫模型,利用一維特比解碼演算法產生多個行銷文案,每一行銷文案由多個分別符合該欲生成詞性序列之該等詞性的目標詞彙所組成。
本發明的另一目的,即在提供一種可自動化生成多個行銷文案的運算裝置。
於是本發明用於產生行銷文案的運算裝置,包含一儲存模組,及一處理模組。
該儲存模組用於儲存一包含一轉移機率表及一狀態機率表的隱藏式馬可夫模型,該轉移機率表包含多個第一詞彙、多個第二詞彙及每一第一詞彙相對於每一第二詞彙的轉移機率值,每一轉移機率值指示出所對應之第一詞彙其後出現所對應之第二詞彙的機率,該狀態機率表包含該等第二詞彙、多個觀察詞性及每一第二詞彙相對於每一觀察詞性的隸屬機率值,每一隸屬機率值指示出所對應之第二詞彙屬於所對應之觀察詞性的機率。
該處理模組電連接該儲存模組。
其中,該處理模組獲得一欲生成詞性序列,該欲生成詞性序列依序由多個詞性所組成,且根據該欲生成詞性序列及該隱藏式馬可夫模型,利用一維特比解碼演算法產生多個行銷文案,每一行銷文案由多個分別符合該欲生成詞性序列之該等詞性的目標詞彙所組成。
本發明的功效在於:藉由該處理模組根據該欲生成詞性序列及該隱藏式馬可夫模型,利用該維特比解碼演算法產生該等行銷文案,以自動化產生符合該欲生成詞性序列之該等詞性的該等行銷文案,進而提供行銷人員藉由自動化產生的該等行銷文案來獲得靈感。
參閱圖1,本發明行銷文案產生方法的一實施例,藉由一運算裝置1來實施,該運算裝置1包含一儲存模組11、一輸出模組12,及一電連接該儲存模組11,及該輸出模組12的處理模組13。該運算裝置1之實施態樣例如為一伺服器、一個人電腦、一筆記型電腦、一平板電腦或一智慧型手機等。
該儲存模組11用於儲存一包含一轉移(State-State)機率表及一狀態(State-Obv)機率表的隱藏式馬可夫模型(Hidden Markov Mode, HMM)、多個訓練文案、一用於標記出一輸入文檔之多個文檔詞彙及其對應之文檔詞性的語意標記模型,該轉移機率表包含多個第一詞彙、多個第二詞彙及每一第一詞彙相對於每一第二詞彙的轉移機率值,每一轉移機率值指示出所對應之第一詞彙其後出現所對應之第二詞彙的機率,該狀態機率表包含該等第二詞彙、多個觀察詞性及每一第二詞彙相對於每一觀察詞性的隸屬機率值,每一隸屬機率值指示出所對應之第二詞彙屬於所對應之觀察詞性的機率,該語意標記模型包含一命名實體識別(Named Entity Recognition)子模型、一詞彙識別(Word segmentation)子模型及一詞性識別(Part-of-Speech Tagging)子模型。表1示例了該轉移機率表之每一第一詞彙(優惠券、外幣、撒等)相對於每一第二詞彙(領取、狂、煥等)的轉移機率值,表2示例了每一第二詞彙相對於每一觀察詞性(動作及物動詞(VC)、狀態不及物動詞(VH)、動作不及物動詞(VA)等)的隸屬機率值。
表1
表2
轉移機率表 | ||||
領取 | 優惠券 | 外幣 | … | 撒 |
0.3 | 0.3 | … | 0.00001 | |
狂 | 0.00001 | 0.00001 | … | 0.7 |
… | … | … | … | … |
煥 | 0.2 | 0.7 | … | 0.00001 |
狀態機率表 | ||||
領取 | VC | VH | … | VA |
0.3 | 0.3 | … | 0.00001 | |
狂 | 0.00001 | 0.00001 | … | 0.7 |
… | … | … | … | … |
煥 | 0.2 | 0.7 | … | 0.00001 |
舉例而言,該等訓練文案可以是「中信銀行請假攻略」、「七大連假這樣休」,及「省錢換匯出國玩」等,但不以此為限。
以下將藉由本發明行銷文案產生方法的實施例來說明該運算裝置1的運作細節,該行銷文案產生方法包含一語意標記模型建立程序、一隱藏式馬可夫模型建立程序,及一文案生成程序。
參閱圖1與圖2,該語意標記模型建立程序說明了如何根據一外部語料庫建立該語意標記模型,並包含以下步驟。
在步驟21中,該處理模組13自該外部語料庫獲得多筆實體識別訓練資料、多筆詞彙識別訓練資料及多筆詞性識別訓練資料,每筆實體識別訓練資料包含一文句並標記有出現於該文句中之對應於多個實體類別之其中一者的字詞,每筆詞彙識別訓練資料包含該文句並標記有出現於該文句中之所有詞彙,每筆詞性識別訓練資料包含該文句並標記有出現於該文句中之所有詞彙所對應的詞性。其中,該外部語料庫包含中央研究院的漢語平衡語料庫、OneNotes,及維基百科(Wikipedia),但不以此為限。
在步驟22中,該處理模組13根據該等實體識別訓練資料,利用一機器學習演算法獲得一命名實體識別子模型,該命名實體識別子模型用於標記出一輸入的文句中對應於該等實體類別之任一者的字詞。其中,該機器學習演算法係透過Fast wordpiece tokenizer來將文句斷詞,以將非結構化的資訊轉化為機器學習模型可消化的序列型資料,且以變換器(Transformer)作為機器學習模型的架構,使得模型在訓練過程中利用梯度下降法(Gradient descent approach)訓練變換器,以獲得變換器之模型權重。
在步驟23中,該處理模組13根據該等詞彙識別訓練資料,利用該機器學習演算法獲得一詞彙識別子模型,該詞彙識別子模型用於標記出輸入之該文句中的多個詞彙。
在步驟24中,該處理模組13根據該等詞性識別訓練資料,利用該機器學習演算法獲得一詞性識別子模型,該詞性識別子模型用於標記出輸入之該文句中的該等詞彙所對應之詞性。
參閱圖1與圖3,該隱藏式馬可夫模型建立程序說明了如何根據該等訓練文案及該語意標記模型建立隱藏式馬可夫模型,並包括以下步驟。
在步驟31中,對於每一訓練文案,該處理模組13利用一轉換規則將該訓練文案中對應於多個預設實體類別之其中一者的特定詞彙轉換為該等預設實體類別之其中該者的類別名稱。其中,該類別名稱可以是商業組織、金額、百分比,或日期等,不以此為限。在本實施方式中,該轉換規則係以正規表示式來實現,該處理模組13將符合該等預設實體類別之其中該者之正規表示式的特定詞彙轉換為該等預設實體類別之其中該者的類別名稱。舉例來說,將該訓練文案中有出現例如為中信兄弟、中國信託、中信銀行,或中信銀等特定詞彙轉換為商業組織,以使得該訓練文案能更符合商業用語。更進一步的來說,該處理模組13是將例如為中國信託換匯優利的訓練文案轉換成[商業機構]換匯優利,或將麥當勞刷中信卡,單筆滿100送蛋捲冰淇淋的訓練文案轉換成[商業組織]刷[商業機構]卡,單筆滿[金額]送蛋捲冰淇淋,或將美金本月最高想年息3%,領有三種幣別任你選的訓練文案轉換成美金[日期]最高享年息[百分比],領有三種幣別任你選,但不以此為限。
在步驟32中,對於每一經步驟31轉換的訓練文案,該處理模組13利用該語意標記模型標記出該訓練文案之多個訓練詞彙及其對應之訓練詞性。
參閱圖1與圖4,值得特別說明的是,該步驟32包含以下子步驟。
在步驟321中,對於每一訓練文案,該處理模組13利用該命名實體識別子模型標記出該訓練文案中對應於該等實體類別之任一者的字詞。
在步驟322中,對於每一訓練文案,該處理模組13將該訓練文案中經該步驟321標記出之每一字詞作為該訓練文案之該等訓練詞彙中之一對應者並將其對應之訓練詞性設定為一特定名詞。
在步驟323中,對於每一訓練文案,該處理模組13利用該詞彙識別子模型標記出該訓練文案之該等訓練詞彙的其他者。
在步驟324中,對於每一訓練文案,該處理模組13利用該詞性識別子模型標記出該訓練文案之該等訓練詞彙的其他者所對應之訓練詞性。
在步驟33中,對於每一訓練文案,該處理模組13將該訓練文案所標記出之訓練詞彙依序組成一作為用以訓練該隱藏式馬可夫模型之隱藏狀態序列的訓練詞彙序列,並將該訓練文案所標記出之訓練詞性依序組成一作為用以訓練該隱藏式馬可夫模型之觀察序列的訓練詞性序列。
在步驟34中,該處理模組13儲存每一訓練文案所對應之訓練詞彙序列及訓練詞性序列至該儲存模組11。
在步驟35中,該處理模組13根據每一訓練文案所對應之訓練詞彙序列及訓練詞性序列,利用一期望值最大化演算法(Expectation Maximization Algorithm),獲得該隱藏式馬可夫模型。
參閱圖1與圖5,該文案生成程序說明了如何生成多個行銷文案,並包括以下步驟。
在步驟41中,該處理模組13經由該儲存模組11所儲存之該等訓練詞性序列隨機獲得一欲生成詞性序列,該欲生成詞性序列依序由多個詞性所組成。
在步驟42中,該處理模組13根據該欲生成詞性序列及該隱藏式馬可夫模型,利用一維特比解碼演算法(L ist Viterbi Decoding Algorithm, LVA)產生該等行銷文案,每一行銷文案由多個分別符合該欲生成詞性序列之該等詞性的目標詞彙所組成。其中,每一行銷文案例如為[商業組織]旅遊密技、七個步驟這樣做、好康換匯出國玩、限時外幣新戶優利活動!美金[日期]最高享年息[百分比],另有三種幣別任您選擇!或線上[日期][商業組織]刷[商業組織]卡單筆滿[金額]送大蛋捲冰淇淋兌換券!但不以此為限。
在步驟43中,該處理模組13經由該輸出模組12輸出該等行銷文案。值得特別說明的是,若所輸出該等行銷文案包含[商業組織]旅遊密技,便可供使用者填上當前欲行銷的商業組織,例如為中信兄弟或中信,但不以此為限;若所輸出該等行銷文案包含限時外幣新戶優利活動!美金[日期]最高享年息[百分比],另有三種幣別任您選擇! 則可供使用者針對[日期]填上例如為小週末、週三,每週五,本月,或母親節,但不以此為限,針對[百分比]填上例如為65折或4%,但不以此為限。藉此,使用者便可根據該等行銷文案來獲得靈感。
綜上所述,本發明行銷文案產生方法,藉由該處理模組13獲得該命名實體識別子模型、該詞彙識別子模型及該詞性識別子模型,且每一訓練文案在轉換過後經由該命名實體識別子模型、該詞彙識別子模型及該詞性識別子模型,來標記詞彙及詞性,接著該處理模組13獲得該隱藏式馬可夫模型,且隨機獲得該欲生成詞性序列,並根據該欲生成詞性序列找出該隱藏式馬可夫模型背後所有可能的詞彙序列,以自動生成該等行銷文案,藉此便不需設定特地目的,可多樣性的產生該等行銷文案,進而使得專家不需花費精力與時間大量收尋且閱讀相關文案資料,便可經由自動化產生的該等行銷文案來獲得靈感,故確實能達成本發明的目的。
惟以上所述者,僅為本發明的實施例而已,當不能以此限定本發明實施的範圍,凡是依本發明申請專利範圍及專利說明書內容所作的簡單的等效變化與修飾,皆仍屬本發明專利涵蓋的範圍內。
1:運算裝置
11:儲存模組
12:輸出模組
13:處理模組
21~24:步驟
31~35:步驟
321~324:步驟
41~43:步驟
本發明的其他的特徵及功效,將於參照圖式的實施方式中清楚地呈現,其中:
圖1是一方塊圖,說明一用於執行本發明行銷文案產生方法之實施例的運算裝置;
圖2是一流程圖,說明本發明行銷文案產生方法之實施例的一語意標記模型建立程序;
圖3是一流程圖,說明本發明行銷文案產生方法之實施例的一隱藏式馬可夫模型建立程序;
圖4是一流程圖,說明該實施例之該隱藏式馬可夫模型建立程序如何標記出詞彙及詞性的細部流程;及
圖5是一流程圖,說明本發明行銷文案產生方法之實施例的一文案生成程序。
1:運算裝置
11:儲存模組
12:輸出模組
13:處理模組
Claims (10)
- 一種行銷文案產生方法,藉由一運算裝置來實施,該運算裝置儲存有一包含一轉移機率表、一狀態機率表的隱藏式馬可夫模型、多個訓練文案、一用於標記出一輸入文檔之多個文檔詞彙及其對應之文檔詞性的語意標記模型,該轉移機率表包含多個第一詞彙、多個第二詞彙及每一第一詞彙相對於每一第二詞彙的轉移機率值,每一轉移機率值指示出所對應之第一詞彙其後出現所對應之第二詞彙的機率,該狀態機率表包含該等第二詞彙、多個觀察詞性及每一第二詞彙相對於每一觀察詞性的隸屬機率值,每一隸屬機率值指示出所對應之第二詞彙屬於所對應之觀察詞性的機率,該行銷文案產生方法包含以下步驟:(A)對於每一訓練文案,利用該語意標記模型標記出該訓練文案之多個訓練詞彙及其對應之訓練詞性;(B)對於每一訓練文案,將該訓練文案所標記出之訓練詞性依序組成一作為用以訓練該隱藏式馬可夫模型之觀察序列的訓練詞性序列;(C)自該等訓練詞性序列獲得一欲生成詞性序列,該欲生成詞性序列依序由多個詞性所組成;及(D)根據該欲生成詞性序列及該隱藏式馬可夫模型,利用一維特比解碼演算法產生多個行銷文案,每一行銷文案由多個分別符合該欲生成詞性序列之該等詞性的目標詞彙所組成。
- 如請求項1所述的行銷文案產生方法,其中,在步驟(B) 中,對於每一訓練文案,還將該訓練文案所標記出之訓練詞彙依序組成一作為用以訓練該隱藏式馬可夫模型之隱藏狀態序列的訓練詞彙序列,在步驟(B)與(C)之間,還包含以下步驟:(E)根據每一訓練文案所對應之訓練詞彙序列及訓練詞性序列,利用一期望值最大化演算法,獲得該隱藏式馬可夫模型。
- 如請求項1所述的行銷文案產生方法,其中,在步驟(A)之前,還包含以下步驟:(F)對於每一訓練文案,利用一轉換規則將該訓練文案中對應於多個預設實體類別之其中一者的特定詞彙轉換為該等預設實體類別之其中該者的類別名稱;其中,在步驟(A)中,係對於每一經步驟(F)之轉換的訓練文案,利用該語意標記模型標記出該訓練文案之該等訓練詞彙及其對應之訓練詞性。
- 如請求項1所述的行銷文案產生方法,該語意標記模型包含一命名實體識別子模型、一詞彙識別子模型及一詞性識別子模型,在步驟(A)之前,還包含以下步驟:(G)自一外部語料庫獲得多筆實體識別訓練資料、多筆詞彙識別訓練資料及多筆詞性識別訓練資料,每筆實體識別訓練資料包含一文句並標記有出現於該文句中之對應於多個實體類別之其中一者的字詞,每筆詞彙識別訓練資料包含該文句並標記有出現於該文句中之所有詞彙,每筆詞性識別訓練資料包含該文句並標記有出現於該文句 中之所有詞彙所對應的詞性;(H)根據該等實體識別訓練資料,利用一機器學習演算法獲得該命名實體識別子模型,該命名實體識別子模型用於標記出一輸入的文句中對應於該等實體類別之任一者的字詞;(I)根據該等詞彙識別訓練資料,利用該機器學習演算法獲得一詞彙識別子模型,該詞彙識別子模型用於標記出輸入之該文句中的多個詞彙;及(J)根據該等詞性識別訓練資料,利用該機器學習演算法獲得一詞性識別子模型,該詞性識別子模型用於標記出輸入之該文句中的該等詞彙所對應之詞性。
- 如請求項4所述的行銷文案產生方法,其中,在步驟(A)中,還包含以下步驟:(A-1)對於每一訓練文案,利用該命名實體識別子模型標記出該訓練文案中對應於該等實體類別之任一者的字詞;(A-2)對於每一訓練文案,將該訓練文案中經子步驟(A-1)標記出之每一字詞作為該訓練文案之該等訓練詞彙中之一對應者並將其對應之訓練詞性設定為一特定名詞;(A-3)對於每一訓練文案,利用該詞彙識別子模型標記出該訓練文案之該等訓練詞彙的其他者;及(A-4)對於每一訓練文案,利用該詞性識別子模型標記出該訓練文案之該等訓練詞彙的其他者所對應之訓練詞性。
- 一種用於產生行銷文案的運算裝置,包含:一儲存模組,用於儲存一包含一轉移機率表、一狀態機率表的隱藏式馬可夫模型、多個訓練文案、一用於標記出一輸入文檔之多個文檔詞彙及其對應之文檔詞性的語意標記模型,該轉移機率表包含多個第一詞彙、多個第二詞彙及每一第一詞彙相對於每一第二詞彙的轉移機率值,每一轉移機率值指示出所對應之第一詞彙其後出現所對應之第二詞彙的機率,該狀態機率表包含該等第二詞彙、多個觀察詞性及每一第二詞彙相對於每一觀察詞性的隸屬機率值,每一隸屬機率值指示出所對應之第二詞彙屬於所對應之觀察詞性的機率;及一處理模組,電連接該儲存模組;其中,對於每一訓練文案,該處理模組利用該語意標記模型標記出該訓練文案之多個訓練詞彙及其對應之訓練詞性,且將該訓練文案所標記出之訓練詞性依序組成一作為用以訓練該隱藏式馬可夫模型之觀察序列的訓練詞性序列,該處理模組自該等訓練詞性序列獲得一欲生成詞性序列,該欲生成詞性序列依序由多個詞性所組成,且根據該欲生成詞性序列及該隱藏式馬可夫模型,利用一維特比解碼演算法產生多個行銷文案,每一行銷文案由多個分別符合該欲生成詞性序列之該等詞性的目標詞彙所組成。
- 如請求項6所述的用於產生行銷文案的運算裝置,其中,對於每一訓練文案,該處理模組還將該訓練文案所標記出之訓練詞彙依序組成一作為用以訓練該隱藏式馬可夫模 型之隱藏狀態序列的訓練詞彙序列,且根據每一訓練文案所對應之訓練詞彙序列及訓練詞性序列,利用一期望值最大化演算法,獲得該隱藏式馬可夫模型。
- 如請求項6所述的用於產生行銷文案的運算裝置,其中,對於每一訓練文案,該處理模組利用一轉換規則將該訓練文案中對應於多個預設實體類別之其中一者的特定詞彙轉換為該等預設實體類別之其中該者的類別名稱,且對於轉換的訓練文案,該處理模組利用該語意標記模型標記出該訓練文案之該等訓練詞彙及其對應之訓練詞性。
- 如請求項6所述的用於產生行銷文案的運算裝置,其中,該儲存模組所儲存之該語意標記模型包含一命名實體識別子模型、一詞彙識別子模型及一詞性識別子模型,該處理模組自一外部語料庫獲得多筆實體識別訓練資料、多筆詞彙識別訓練資料及多筆詞性識別訓練資料,每筆實體識別訓練資料包含一文句並標記有出現於該文句中之對應於多個實體類別之其中一者的字詞,每筆詞彙識別訓練資料包含該文句並標記有出現於該文句中之所有詞彙,每筆詞性識別訓練資料包含該文句並標記有出現於該文句中之所有詞彙所對應的詞性,該處理模組根據該等實體識別訓練資料,利用一機器學習演算法獲得該命名實體識別子模型,該命名實體識別子模型用於標記出一輸入的文句中對應於該等實體類別之任一者的字詞,並根據該等詞彙識別訓練資料,利用該機器學習演算法獲得一詞彙識別子模型,該詞彙識別子模型用於標記出輸入之該文句中的多個 詞彙,且根據該等詞性識別訓練資料,利用該機器學習演算法獲得一詞性識別子模型,該詞性識別子模型用於標記出輸入之該文句中的該等詞彙所對應之詞性。
- 如請求項9所述的用於產生行銷文案的運算裝置,其中,對於每一訓練文案,該處理模組利用該命名實體識別子模型標記出該訓練文案中對應於該等實體類別之任一者的字詞,並將所標記出之每一字詞作為該訓練文案之該等訓練詞彙中之一對應者並將其對應之訓練詞性設定為一特定名詞,且利用該詞彙識別子模型標記出該訓練文案之該等訓練詞彙的其他者,並利用該詞性識別子模型標記出該訓練文案之該等訓練詞彙的其他者所對應之訓練詞性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW111140284A TWI831432B (zh) | 2022-10-24 | 2022-10-24 | 行銷文案生成方法及其運算裝置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW111140284A TWI831432B (zh) | 2022-10-24 | 2022-10-24 | 行銷文案生成方法及其運算裝置 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI831432B true TWI831432B (zh) | 2024-02-01 |
TW202418181A TW202418181A (zh) | 2024-05-01 |
Family
ID=90824602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111140284A TWI831432B (zh) | 2022-10-24 | 2022-10-24 | 行銷文案生成方法及其運算裝置 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI831432B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11132988B1 (en) * | 2020-10-22 | 2021-09-28 | PolyAI Limited | Dialogue system, a dialogue method, and a method of training |
CN114595377A (zh) * | 2020-12-07 | 2022-06-07 | 腾讯科技(深圳)有限公司 | 词汇推荐方法、装置、终端及可读存储介质 |
CN114971730A (zh) * | 2022-06-02 | 2022-08-30 | 广州欢聚时代信息科技有限公司 | 文案素材提取方法及其装置、设备、介质、产品 |
CN115204959A (zh) * | 2022-07-27 | 2022-10-18 | 广州华多网络科技有限公司 | 广告文案生成方法及其装置、设备、介质 |
TWM638301U (zh) * | 2022-10-24 | 2023-03-01 | 中國信託商業銀行股份有限公司 | 用於產生行銷文案的運算裝置 |
-
2022
- 2022-10-24 TW TW111140284A patent/TWI831432B/zh active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11132988B1 (en) * | 2020-10-22 | 2021-09-28 | PolyAI Limited | Dialogue system, a dialogue method, and a method of training |
CN114595377A (zh) * | 2020-12-07 | 2022-06-07 | 腾讯科技(深圳)有限公司 | 词汇推荐方法、装置、终端及可读存储介质 |
CN114971730A (zh) * | 2022-06-02 | 2022-08-30 | 广州欢聚时代信息科技有限公司 | 文案素材提取方法及其装置、设备、介质、产品 |
CN115204959A (zh) * | 2022-07-27 | 2022-10-18 | 广州华多网络科技有限公司 | 广告文案生成方法及其装置、设备、介质 |
TWM638301U (zh) * | 2022-10-24 | 2023-03-01 | 中國信託商業銀行股份有限公司 | 用於產生行銷文案的運算裝置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yeomans et al. | The politeness Package: Detecting Politeness in Natural Language. | |
Preotiuc-Pietro et al. | Automatically identifying complaints in social media | |
Ullah et al. | From valence to emotions: Exploring the distribution of emotions in online product reviews | |
Petersen et al. | A machine learning approach to reading level assessment | |
CN111797898B (zh) | 一种基于深度语义匹配的在线评论自动回复方法 | |
Fang et al. | Domain adaptation for sentiment classification in light of multiple sources | |
Sun et al. | Emotional human-machine conversation generation based on long short-term memory | |
Zhang et al. | Automatic product copywriting for e-commerce | |
Alnajjar et al. | Computational generation of slogans | |
Firdaus et al. | Incorporating politeness across languages in customer care responses: Towards building a multi-lingual empathetic dialogue agent | |
Saranya et al. | A Machine Learning-Based Technique with IntelligentWordNet Lemmatize for Twitter Sentiment Analysis. | |
TWM638301U (zh) | 用於產生行銷文案的運算裝置 | |
Kim et al. | Accurate and prompt answering framework based on customer reviews and question-answer pairs | |
CN112417155B (zh) | 基于指针-生成Seq2Seq模型的庭审询问生成方法、装置、介质 | |
CN110008807A (zh) | 一种合同内容识别模型的训练方法、装置及设备 | |
TWI831432B (zh) | 行銷文案生成方法及其運算裝置 | |
Zhang et al. | Generating news image captions with semantic discourse extraction and contrastive style-coherent learning | |
Sudiro et al. | Aspect Based Sentiment Analysis with Combination Feature Extraction LDA and Word2vec | |
Borhanifard et al. | Persian Language Understanding in Task-Oriented Dialogue System for Online Shopping | |
Ben-Ami et al. | Using multi-view learning to improve detection of investor sentiments on twitter | |
Alshahrani et al. | Word mover's distance for affect detection | |
Thuy et al. | Leveraging foreign language labeled data for aspect-based opinion mining | |
TW202418181A (zh) | 行銷文案生成方法及其運算裝置 | |
TWM629035U (zh) | 文字生成裝置 | |
Lee | Use-centric mining of customer reviews |