TWI612488B - 用於預測商品的市場需求的計算機裝置與方法 - Google Patents
用於預測商品的市場需求的計算機裝置與方法 Download PDFInfo
- Publication number
- TWI612488B TWI612488B TW105140087A TW105140087A TWI612488B TW I612488 B TWI612488 B TW I612488B TW 105140087 A TW105140087 A TW 105140087A TW 105140087 A TW105140087 A TW 105140087A TW I612488 B TWI612488 B TW I612488B
- Authority
- TW
- Taiwan
- Prior art keywords
- feature
- computer device
- processor
- commodities
- product
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0202—Market predictions or forecasting for commercial activities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
所揭露之實施例關於一種用於預測商品的市場需求的計算機裝置與方法。該方法包含:針對複數商品中的每一個建立多來源資料,其中該全部多來源資料中的每一個來自於複數資料來源;儲存該全部多來源資料;針對各該商品而從該全部多來源資料中的一相應多來源資料中萃取複數特徵,以針對各該資料來源建立一特徵矩陣;針對該等特徵矩陣進行一張量分解程序,以產生至少一潛在特徵矩陣;以及針對該至少一潛在特徵矩陣進行一深度學習程序以建立一預測模型,並根據該預測模型預測各該商品的市場需求。
Description
所揭露之實施例涉及一種計算機裝置與方法,更具體而言,係涉及一種用於預測商品的市場需求的計算機裝置與方法。
一直以來,無論是傳統的商務模式、或是近年來崛起的電子商務模式,誰能準確地預測商品的市場需求,誰就能在該商品的市場中佔有一席之地,而這主要是因為市場需求與商品的成本及商品的收益有著密不可分的關係。舉例而言,準確地預測商品的市場需求不但可減少或避免商品的庫存(即降低商品的成本),亦可增加商品的銷售量(即增加商品的收益)。
透過對於已知的商品資料進行統計分析來針對市場需求建立一預測模型是一種已知的技術概念。早期,在商品種類、商品銷售通路與商品資料來源均有限的情況下,由於影響市場需求的因素較少,故針對市場需求所建立的預測模型通常只是一種透過對於單一商品的單一資料來源進行統計分析所建立的簡單模型。舉例而言,根據某一商品在某一實體店面的已知銷售量進行統計分析以建立一預測模型,然後根據該預測模型來預測該商品的未來銷售量。
現今,隨著商品種類、商品銷售通路與商品資料來源的增長,
影響市場需求的因素不但大幅增加,且這些因素彼此之間還會相互影響。然而,傳統的簡單預測模型已無法有效地用來預測現今商品的市場需求。舉例而言,傳統的簡單預測模型並無法考量某一商品的已知銷售量可能會影響到另一商品的未來銷售量。又舉例而言,傳統的簡單預測模型並無法考量根據某一商品在某一實體店面的已知銷售量來對其未來銷售量所進行的預測可能會因該商品在社群網路上的評價而大幅變動。
有鑑於此,如何在商品種類、商品銷售通路與商品資料來源均增長的情況下,提供一種預測商品的市場需求的有效方案,將是本發明所屬技術領域中的一項重要目標。
所揭露之實施例提供一種用於預測商品的市場需求的計算機裝置與方法。
用於預測商品的市場需求的計算機裝置可包含一處理器與一儲存器。該處理器可用以針對複數商品中的每一個建立多來源資料,該全部多來源資料中的每一個來自於複數資料來源。該儲存器可用以儲存該全部多來源資料。該處理器還可針對各該商品而從該全部多來源資料中的一相應多來源資料中萃取複數特徵,以針對各該資料來源建立一特徵矩陣。該處理器還可針對該等特徵矩陣進行一張量分解程序,以產生至少一潛在特徵矩陣。該處理器還可針對該至少一潛在特徵矩陣進行一深度學習程序以建立一預測模型,並根據該預測模型預測各該商品的市場需求。
用於預測商品的市場需求的方法可包含:由一計算機裝置針對複數商品中的每一個建立多來源資料,該全部多
來源資料中的每一個來自於複數資料來源;由該計算機裝置儲存該全部多來源資料;由該計算機裝置針對各該商品而從該全部多來源資料中的一相應多來源資料中萃取複數特徵,以針對各該資料來源建立一特徵矩陣;由該計算機裝置針對該等特徵矩陣進行一張量分解程序,以產生至少一潛在特徵矩陣;以及由該計算機裝置針對該至少一潛在特徵矩陣進行一深度學習程序以建立一預測模型,並根據該預測模型預測各該商品的市場需求。
綜上所述,為了考量更多可能影響市場需求的因素,本發明根據多個商品的多個資料來源的資料來建立用於預測市場需求的預測模型,故相對於傳統的簡單預測模型,本發明所建立的預測模型可針對現今商品的市場需求提供更準確的預測。另外,在本發明建立該預測模型的過程中,採用了一張量分解程序來分解原始的特徵矩陣,藉此降低因考量更多可能影響市場需求的因素而增加的計算量、以及剔除因考量更多可能影響市場需求的因素所增加的雜訊/干擾資料。據此,在商品種類、商品銷售通路與商品資料來源均增長的情況下,本發明提供了一種用於預測商品的市場需求的有效方案。
以上內容呈現了本發明的摘要說明(涵蓋了本發明解決的問題、採用的手段以及達到的功效),以提供對本發明的基本理解。以上內容並非有意概括本發明的所有態樣。另外,以上內容既不是為了確認本發明的任一或所有態樣的關鍵或必要元件,也不是為了描述本發明的任一態樣或所有態樣的範圍。上述內容的目的僅是以一簡單形式來呈現本發明的部分
態樣的某些概念,以作為隨後詳細描述的一個引言。
如下所示:
1‧‧‧計算機裝置
11‧‧‧處理器
13‧‧‧儲存器
15‧‧‧I/O介面
17‧‧‧網路介面
20、22‧‧‧特徵矩陣
40、42‧‧‧潛在特徵矩陣
5‧‧‧用於預測商品的市場需求的方法
501~509‧‧‧步驟
60、62‧‧‧預測模型
9‧‧‧網路
C1、D2、...、CN‧‧‧商品
D11~D1L、D21~D2L‧‧‧特徵
D1、D2、...、DN‧‧‧多來源特徵
L‧‧‧資料來源的總數
M‧‧‧特徵的總數
N‧‧‧商品的總數
K‧‧‧預定義的特徵維度值
S‧‧‧資料來源空間
S1~SL‧‧‧資料來源
第1圖例示了在本發明的一或多個實施例中一種用於預測商品的市場需求的計算機裝置。
第2圖例示了在本發明的一或多個實施例中各個商品與複數資料來源之間的一對應關係。
第3圖例示了在本發明的一或多個實施例中建立特徵矩陣的一過程。
第4A圖例示了在本發明的一或多個實施例中進行一張量分解程序的一過程。
第4B圖例示了在本發明的一或多個實施例中進行另一張量分解程序的一過程。
第5圖例示了在本發明的一或多個實施例中一種用於預測商品的市場需求的方法。
以下所述各種實施例並非用以限制本發明只能在所述的環境、應用、結構、流程或步驟方能實施。於圖式中,與本發明非直接相關的元件皆已省略。於圖式中,各元件的尺寸以及各元件之間的比例僅是範例,而非用以限制本發明。除了特別說明之外,在以下內容中,相同(或相近)的元件符號可對應至相同(或相近)的元件。
第1圖例示了在本發明的一或多個實施例中一種用於預測商品的市場需求的計算機裝置,但第1圖所示的計算機裝置只是一個範例,而
非為了限制本發明。參照第1圖,一計算機裝置1可包含一處理器11與一儲存器13。計算機裝置1還可包含其他元件,例如但不限於:一I/O介面15與一網路介面17。可透過某些媒介或元件,例如透過各種匯流排(Bus),使處理器11、儲存器13、I/O介面15與網路介面17電性連接(即間接電性連接);或者可不透過某些媒介或元件而使處理器11、儲存器13、I/O介面15與網路介面17電性連接(即直接電性連接)。透過該直接電性連接或該間接電性連接,可在處理器11、儲存器13、I/O介面15與網路介面17之間傳遞訊號並交換資料。計算機裝置1可以是各種類型的計算機裝置,例如但不限於智慧型電話、筆記型電腦、平板電腦等、桌上型電腦等。
處理器11可以是一般計算機裝置/電腦內所具備的一中央處理器(CPU),可被編程以解釋電腦指令、處理計算機軟體中的資料、以及執行各種運算程序。該中央處理器可以是由多個獨立單元構成的處理器、或是由一或多個積體電路構成的微處理器。
儲存器13可包含一般計算機裝置/電腦內所具備的各種儲存單元。儲存器13可包含第一級記憶體(又稱主記憶體或內部記憶體),通常簡稱為記憶體,這層的記憶體與CPU直接連通。CPU可讀取儲存在記憶體的指令集,並在需要時執行這些指令集。儲存器13還可包含第二級記憶體(又稱外部記憶體或輔助記憶體),且第二級記憶體和中央處理器並沒有直接連通,而是透過記憶體的I/O通道來與之連接,並使用資料緩衝器來將資料傳送至第一級記憶體。在不供應電源的情況下,第二級記憶體的資料仍然不會消失(即非揮發性)。第二級記憶體可例如是各種類型的硬碟、光碟等。儲存器13亦可包含第三級儲存裝置,亦即,可直接插入或自電腦拔除的儲存
裝置,例如隨身碟。
I/O介面15可包含一般計算機裝置/電腦內所具備的各種輸入/輸出元件,用以接收來自外部的資料以及輸出資料至外部。例如但不限於:滑鼠、軌跡球、觸控板、鍵盤、掃描器、麥克風、使用者介面、螢幕、觸控式螢幕、投影機等等。
網路介面17可包含一般計算機裝置/電腦內所具備的至少一實體網路介面卡,以作為計算機裝置1與一網路9兩者之間的一個互接(interconnection)點,其中網路9可以是一私有網路(例如區域網路)或是一公開網路(例如網際網路)。根據不同的需求,網路介面17可讓計算機裝置1以有線存取或無線存取的方式,在網路9上與其他電子裝置進行通訊並交流資料。於某些實施例中,在網路介面17與網路9之間還可包含切換裝置、路由裝置等裝置。
第1圖所示的計算機裝置可用於預測商品的各種市場需求,例如但不限於:商品的銷售量、商品的接受度、商品的價格...等等。以下將以預測商品的銷售量作為商品的市場需求為例來說明,惟這並非是為了限制本發明。
第2圖例示了在本發明的一或多個實施例中各個商品與複數資料來源之間的一對應關係,但第2圖所示的對應關係只是一個範例,而非為了限制本發明。參照第1-2圖,假設一資料來源空間S包含了複數資料來源S1~SL,處理器11可用以針對複數商品C1~CN中的每一個分別建立多來源資料D1~DN,且儲存器13可用以儲存全部多來源資料D1~DN,其中全部多來源資料D1~DN中的每一個可分別來自於複數資料來源S1~SL。N為商品的總數,
L為資料來源的總數,且N與L可分別是大於或等於1的整數。
於某些實施例中,該等商品C1~CN可以是屬於同一類別的商品,且該同一類別的範圍大小取決於不同的需求。舉例而言,該等商品C1~CN可以是3C商品這個類別內的任意商品,也可以是3C商品類別中通訊商品這個子類別內的任意商品。
於某些實施例中,儲存器13可預先儲存該等資料來源S1~SL所能提供的全部資料。於某些實施例中,處理器可經由I/O介面15或網路介面17而從外部直接取得該等資料來源S1~SL所能提供的全部資料。
於某些實施例中,該等資料來源S1~SL可以是各種能夠提供與該等商品C1~CN相關的商品資料的來源,例如但不限於:實體銷售平台、網路銷售平台、社群網路...等等。
於某些實施例中,處理器11可預先在儲存器13中針對該等商品C1~CN建立一知識樹,用以界定商品的概念階層,其中可例如包含界定商品類別的第一層、界定商品品牌的第二層以及界定商品的第三層。另外,處理器11還可預先透過例如維基百科(Wikipedia)等各種網路資訊提供者而在儲存器13中儲存與該等商品C1~CN各自的名稱及同義字相關的資訊。然後,處理器11可在該等資料來源S1~SL中針對該等商品C1~CN中的每一個進行一同義字整合程序以及一文字媒合程序,以分別建立與該等商品C1~CN相關的該等多來源資料D1~DN。
舉例而言,於該同義字整合程序中,處理器11可根據該知識樹的商品資訊以及同義字資訊而針對該等商品C1~CN中的每一個,從該等資料來源S1~SL所提供的全部資料中將出現過相同商品名稱及其同義字的資料
挑選出來,並將經挑選的資料中出現的商品名稱統一化。於該文字媒合程序中,處理器11可透過習知的文字相似度計算公式,分別比對每一個經挑選的資料中所出現的商品及商品品牌與該知識樹中相對應的商品及商品品牌二者之間的文字相似度總和是否高於一預測的門檻值。若是,則處理器11可決定該經挑選的資料即屬於與該商品相關的資料。
以第2圖為例,假設在該等資料來源S1~SL所提供的全部資料中,與商品C1相關的資料分別是D11~D1L,而與商品C2相關的資料分別是D21~D2L,則處理器11可將資料D11~D1L決定為商品C1的多來源資料D1,且將資料D21~D2L決定為商品C2的多來源資料D2。如此,處理器11便可建立分別與該等商品C1~CN相關的該等多來源資料D1~DN。
第3圖例示了在本發明的一或多個實施例中建立特徵矩陣的一過程,但第3圖所示的過程只是一個範例,而非為了限制本發明。參照第3圖,在建立該等多來源資料D1~DN之後,處理器11可針對該等商品C1~CN中的每一個而從該等多來源資料D1~DN中的一相應多來源資料中萃取複數特徵(可表示為一L×M的矩陣),以針對該等資料來源S1~SL中的每一個建立一特徵矩陣20(可表示為一M×N的矩陣)。N為商品的總數,L為資料來源的總數,M為特徵的總數,且N、L與M可分別是大於或等於1的整數。
於某些實施例中,處理器11針對該等商品C1~CN中的每一個所分別萃取的L個特徵可包含至少一商品特徵,且該至少一商品特徵與商品基本資料、影響商品因子、商品評價以及商品銷售紀錄其中至少一種相關。該商品資料可包含但不限於:價格、容量、重量、系列、上市日期、屬性、品牌、出產地...等。影響商品因子可包含但不限於:品牌市佔率、訴求效果、
商品效能、訴求客群、商品彩度、商品材質、商品形狀...等。商品評價可包含但不限於:使用者體驗、性價比、商品評分、商品評論的評分、人氣指數...等。商品銷售紀錄可包含但不限於:常被一起瀏覽的商品、常被一起購買的商品、瀏覽次數、購物車被取消次數、銷售量變化、累積銷售量、銷售量增漲幅度、與上個月或與去年同期銷售量比。
就商品銷售量這項商品特徵而言,還可結合不同的時間維度(例如:日、週、月、季、年等)來產生更多樣的商品特徵。這些特徵可以分為兩大類,第一類為時間序列特徵,而第二類為波動(Fluctuation)特徵。假設在時間點k與k+1各銷售了nk與nk+1個商品的情況下,時間序列特徵可包含但不限於:銷售量之平均單步增加速率、銷售量之平均雙步增加速率、銷售量之前L時窗平均傳播速率以及銷售量之前L時窗平均單步增加速率。
於某些實施例中,處理器11針對該等商品C1~CN中的每一個所分別萃取的L個特徵可包含至少一文字特徵,且處理器11可基於一特徵因子分析、一情緒分析以及一語意分析其中至少一種來萃取該至少一文字特徵。
特徵因子分析可協助處理器11從新聞、社群評論等文字資訊中找出與商品相關且重要的文字特徵。詞是最小有意義且可以自由使用的語言單位,而任何語言處理的系統都必須先能分辨文本中的詞才能進行進一步的處理。因此,處理器11可先透過各種開源的斷詞工具(segmentation tool)或是透過N-gram,以詞為單位來對該文字資訊進行切割。N-gram是自然語言處理常用到的方法,其可用來計算字與字之間的共現關係,因而故有助於斷詞或是計算詞彙的孳生性(productivity)。
在取得斷詞結果之後,處理器11可透過各種文字特徵辨識方法來找出特徵因子。舉例而言,若要判斷的商品沒有類別結構,則處理器11可以採取TF-IDF(Term Frequency-Inverse Document Frequency)來計算字詞的重要性,其中TF-IDF可以下式表示:
其中,tfi為字詞i在文件集合k中出現的總數;idfi為字詞i的逆向文件頻率;D為文件總數;以及dj為字詞i出現於多少篇文章。
TF-IDF是一種用於資訊檢索與文本挖掘的常用加權技術。TF-IDF本質上是一種統計方法,可用以評估一字詞對於一個文件集或一個語料庫中的其中一份文件的重要程度,其中字詞的重要性會隨著它在文件中出現的次數成正比增加,但同時也會隨著它在語料庫中出現的頻率成反比下降。維基百科(Wikipedia)中關於TF-IDF的說明(網址:https://en.wikipedia.org/wiki/Tf%E2%80%93idf)將以引用的方式全文併入此處。
另舉例而言,若要判斷的商品具有類別結構,則處理器11可透過四格表資料的卡方檢驗來挑選出各類別結構中重要的字詞(即因子)。四格表資料的卡方檢驗可用於進行兩個率或兩個構成比的比較。假設四格表資料四個格子的頻數分別為A、B、C、D,則四格表資料卡方檢驗的卡方值可以下式表示:
其中,N為文件總數量;t為字詞;c j 為類別;A為字詞t在某一類別所出現的次數;B為字詞t在該類別之外的類別所出現的次數;C為字詞t之外的字詞在該類別所出現的次數;以及D為字詞t之外的字詞在在該類別之外的類別所
出現的次數。
透過TF-IDF與卡方檢驗,處理器11即可從新聞、社群評論等文字資訊中找出與商品相關且經常出現的字詞,而因在文字資訊中經常出現的字詞通常表示該商品的市場討論熱度高,故處理器11可將經常出現的字詞決定為該商品的特徵因子。
於某些實施例中,處理器可進一步將特徵因子轉為與商品相關且重要的文字特徵。舉例而言,處理器11可將分佈在所有文章(即j篇文章)的特徵因子以向量形式v j (d 1,j ,d 2,j ,...,d n,j )來呈現,然後基於餘旋相似度(Cosine similarity)計算兩兩特徵因子於大量文件集合中的相似度。餘旋相似度是指一內積空間中兩非零向量之間的餘旋角度。維基百科(Wikipedia)中關於餘旋相似度的說明(網址:https://en.wikipedia.org/wiki/Cosine_similarity)將以引用的方式全文併入此處。在v j表示為第j個特徵因子向量,且v k 表示為第k個特徵因子向量的情況下,兩兩特徵因子於大量文件集合中的相似度可如下式所示:
其中,θ為夾角(越小表示兩兩特徵因子相似度越大);d i,j 為特徵因子j於第di篇文章中出現的次數;以及d i,k 為特徵因子k於第d i 篇文章中出現的次數。
在根據公式(8)計算出兩兩特徵因子於大量文件集合中的相似度之後,處理器11可藉由一預設的門檻值θ t 來決定兩兩特徵因子是否為關聯詞,然後將屬於關聯詞的特徵因子決定為特徵詞(特徵因子)。另外,
處理器11可根據被決定的特徵詞進一步計算以下特徵:累積量ACC tj 、一段時間區間p內的總量Q tj 以及增長率R tj 。在t i,j 表示為特徵詞(特徵因子)t j 出現於第i天的次數的情況下,累積量ACC tj 、總量Q tj 以及增長率R tj 可如下式所示:
情緒分析可協助處理器11從新聞、社群評論等文字資訊中分析出句子的情緒。情緒分析主要是以句子為單位,透過上述特徵因子分析所取得的特徵因子以及預先定義的情緒詞,處理器11可找出factor-opinion pair的集合<F,O>。舉例而言,處理器11可依照情緒詞被預先定義的極性給予包含特徵因子的句子情緒分數,其中針對正面情緒詞給予情緒分數為+1,針對負面情緒詞給予的情緒分數為-1。然後,處理器11可根據下式來決定情緒分數的權重:
其中dis i,j 為特徵因子與情緒詞之間的距離。
若情緒詞是接續在否定詞(例如不、沒有、不會...等)之後,則將情緒分數的極性反轉(亦即,將正值轉為負值,以及將負值轉為正值)。另外,若句子之間包含轉折詞(例如雖然、可是、但是...等),則接續在轉
折詞之後的句子的情緒分數要在加上(1+w i )的權重。
語意分析可協助處理器11從新聞、社群評論等文字資訊中識別出實際使用商品的使用者及其類別(例如年齡層)。舉例而言,處理器11可透過判斷使用者的名稱出現在句子中的位置(例如主動位置或被動位置)來識別出實際使用商品的使用者。另舉例而言,處理器11可預先將使用者分類為不同的客群,並根據使用者的名稱來識別出其所屬的客群。假設處理器11已將“媽媽”預先分類為“長輩”這個客群,則當處理器11從新聞、社群評論等文字資訊中識別出實際使用商品的使用者名稱是媽媽時,亦可一併得知商品的該使用者的類別(例如年齡層)。
於某些實施例中,處理器11針對該等商品C1~CN中的每一個所分別萃取的L個特徵可包含至少一社群特徵,且處理器11可基於該等商品C1~CN中的每一個的一社群網路討論度來萃取該至少一社群特徵。舉例而言,處理器11可偵測一段時間p內商品被討論量的變化,且若變化幅度高於一預設的門檻值t s ,則將其視其為一社群事件。然後,處理器11可根據該社群事件的討論變化值SEV來決定該至少一社群特徵。商品j的社群事件的討論變化值SEV j 可如下式所示:
其中,d n,j 為時間點n提及產品j的評論數;以及d n-p,j 為時間內p提及產品j的評論數。
於某些實施例,若單一社群平台的使用者不足,處理器11亦可將不同的社群平台視為同一社群網路。然後,處理器11可藉由使用者在該
社群網路中的互動(例如:按讚(Like)、回文、回覆、標註、追蹤)建立個別用戶的社群影響力。在該社群網路中,經由SEV公式所判別的事件可追朔至該事件所包含的評論。另外,處理器11可依照評論的發文者、回文者以及底下的回應者計算影響力的擴散範圍。
在針對該等資料來源S1~SL中的每一個建立一特徵矩陣20(可表示為一M×N的矩陣)之後,處理器11可針對該等特徵矩陣20進行一張量分解程序,以產生至少一潛在特徵矩陣40。然後,處理器11可針對至少一潛在特徵矩陣40進行一深度學習程序以建立一預測模型,並根據該預測模型預測該等商品C1~CN中的每一個的市場需求。
過多的特徵不但會降低該預測模型的運算效能,也容易成為該預測模型的雜訊。因此,於某些實施例中,在進行該深度學習程序之前,處理器11可先針對該等特徵矩陣20進行該張量分解程序,以產生至少一潛在特徵矩陣40。該張量分解程序是一種包含高維度奇異值分解(High-Order Singular Value Decomposition)的程序,其可將輸入矩陣進行有效地壓縮,且將輸入矩陣中多個特徵所表達的潛在意涵整合成一潛在特徵。透過該張量分解,由於類似商品之特徵可潛在地在彼此之間相互彌補,故可減少資料缺失的問題。另外,透過該張量分解,除了能夠更有效利用資料解決冷啟始問題,也解決了資料量過大無法處理之問題。關於張量分解,J.Schmidhuber在期刊“Neural Networks”所發表的文章“Deep Learning in Neural Networks:An Overview”將以引用的方式全文併入此處。
第4A圖例示了在本發明的一或多個實施例中進行一張量分解程序的一過程,但第4A圖所示的過程只是一個範例,而非為了限制本發
明。參照第4A圖,於某些實施例中,處理器11可基於一預定義的特徵維度值K來針對L個特徵矩陣20中的每一個分別進行一張量分解程序,以產生L個潛在特徵矩陣40。詳言之,在處理器11對每一個M×N的特徵矩陣20進行該張量分解程序之後,每一個M×N的特徵矩陣20可被分解為一個M×K的矩陣以及一個K×N的矩陣,其中K即為該預定義的特徵維度值,且K為大於等於1且小於等於M的整數。之後,處理器11可將L個K×N的矩陣選為潛在特徵矩陣40,並針對L個K×N的潛在特徵矩陣40進行一深度學習程序,以建立一預測模型60。處理器11可根據預測模型60的預測結果來決定K的數值。
第4B圖例示了在本發明的一或多個實施例中進行另一張量分解程序的一過程,但第4B圖所示的過程只是一個範例,而非為了限制本發明。參照第4B圖,於某些實施例中,處理器11可先將L個M×N的特徵矩陣20整合為一個P×N的特徵矩陣22,其中P是特徵的總數M與資料來源的總數L相乘之值。然後,處理器可基於一預定義的特徵維度值K來針對特徵矩陣22進行一張量分解程序,以產生一潛在特徵矩陣42。詳言之,在處理器11對特徵矩陣22進行該張量分解程序之後,P×N的特徵矩陣22可被分解為一個P×K的矩陣以及一個K×N的矩陣,其中K即為該預定義的特徵維度值,且K為大於等於1且小於等於P的整數。之後,處理器11可將K×N的矩陣選為潛在特徵矩陣42,並針對K×N的潛在特徵矩陣42進行一深度學習程序,以建立一預測模型62。處理器11可根據預測模型62的預測結果來決定K的數值。
在L個M×N的特徵矩陣20中,N個商品中的某些商品可能會有特徵值遺失或誤植的問題,而這樣的問題可能會導致不同商品之間的比較基準不一,進而對於後續有關市場需求的預測產生誤差。因此,於某些實
施例中,在針對L個M×N的特徵矩陣20進行該張量分解程序之前,處理器11可先針對L個M×N的特徵矩陣20進行一商品相似度比對程序與一遺失值插補程序。舉例而言,於該商品相似度比對程序中,處理器11可根據以下公式計算N個商品中兩兩商品之間的一相似度:
其中,v j為第j個商品的特徵向量;v k 為第k個商品的特徵向量;x i,j 為第j個商品的第i個特徵;x i,k 為第k個商品的第i個特徵;w i 在x i,j 或x i,k 無效時為0,否則為1。
然後,於該遺失值插補程序中,處理器11可根據以下公式預估第n個商品的第m個特徵(即遺失的特徵或被誤植的特徵)的估計值:
其中,為第n個商品的第m個特徵的估計值,x m,i 為第i個商品的第m個特徵的實際值。
透過公式(12)與(13),處理器11便可找尋與遺失特徵或被誤植特徵的目標商品相似的k個商品,並根據此k個商品的特徵的加權計算來預估該目標商品所遺失的特徵或被誤植的特徵。相似度越高的商品,其特徵的權重就越大。
如上所述,處理器11可針對L個K×N的潛在特徵矩陣40(K
為大於等於1且小於等於M的整數)進行一深度學習程序,或者處理器11可針對單一個K×N的潛在特徵矩陣40(K為大於等於1且小於等於P的整數)進行一深度學習程序。詳言之,深度學習是機器學習中一種基於對資料進行特徵學習的方法,其可把資料透過多個處理層(layer)中的線性或非線性轉換(linear or non-linear transform),自動抽取出足以代表資料特性的特徵。特徵學習的目標是尋求更好的表示方法並建立更好的模型,以從大規模未標記資料中學習這些表示方法。上述深度學習程序可包含各種已知的深度學習架構,例如但不限於:深度神經網路(Deep Neural Network,DNN)、卷積神經網路(Convolutional Neural Network,CNN)、深度信念網路(Deep Belief Network)以及遞迴神經網路(Recurrent Neural Network)...等。
為了便於說明,以下將以深度神經網路為例來說明,但此例並非為了限制本發明。類神經網路是一種模仿生物神經系統的數學模型。在類神經網路中,通常會有數個階層,每個階層中會有數十到數百個神經元(neuron),神經元會將上一層神經元的輸入加總後,進行活化函數(Activation function)的轉換,當成神經元的輸出。每一個神經元會跟下一層的神經元有特殊的連接關係,使上一層神經元的輸出值經過權重計算(weight)後傳遞給下一層的神經元。深度神經網路是一種判別模型,其可使用反向傳播演算法進行訓練,且可使用梯度下降法來計算權重。
於某些實施例,為了解決深度神經網路的過擬合問題和運算量過大的問題,處理器11還可結合各種自動編碼器技術至該深度學習程序中。自動編碼器是一種用以在類神經網路中重現輸入信號的技術。詳言之,可在一類神經網路中,將第一層的輸入訊號輸入至一編碼器(encoder)以
產生一編碼(code),然後再將此編碼輸入至一解碼器(decoder)以產生一輸出訊號。若該輸出訊號與該輸入訊號之間的差異越小(即重建誤差越小),則該編碼越能代表該輸入訊號。接著,可在該類神經網路中,以該編碼表示第二層的輸入訊號,然後再進行上述重構誤差的計算(即編碼、解碼與判斷動作),求得第二層的編碼值。以此類推,直到取得代表每一層的輸入訊號的編碼。
針對第4A圖所示的L個K×N的潛在特徵矩陣40,處理器11可設定以下目標函數:
其中:, x S 為L個潛在特徵矩陣40中的特徵集合,為 x S 經由編碼以及解碼後所重建的特徵集合,r為該等資料來源S1~SL的總數L,n j 為該特徵集合中特徵的總數;Ω( Θ,Θ ')=∥ W ∥2+∥ b ∥2+∥ W' ∥2+∥ b' ∥2,Θ={W,b},Θ'={W',b'}, W 和 b 分別編碼器的權重矩陣以及偏差向量,而 W' 和 b' 分別解碼器的權重矩陣以及偏差向量;, z S 是 x S 的編碼,y S 是該特徵集合中的有標籤特徵, θ j 是第j個分類器的參數向量,σ(.)為S函數(sigmoid function);以及γ、α、λ為可調參數,其數值範圍介於0~1。
公式(14)所示的目標函數相當於是在最小化、Ω( Θ,Θ ')與l( z S ,y S ;{ θ j })的情況下,計算出 Θ (即編碼器的權重矩陣以及偏差
向量)、 Θ' (即解碼器的權重矩陣以及偏差向量)與{ θ j }(即所有來源分類器的參數向量的集合)。為 x S 經由自動編碼器編碼後的重建誤差,其目的在於將輸入的特徵矩陣經過自動編碼器(類似於特徵挑選,但目的是為了挑選對預測有幫助的特徵)後,可得到與原始特徵矩陣誤差最小的結果。Ω( Θ,Θ' )為參數Θ的正則項(regulation),用以避免因 W 和 b 過大而造成特徵過度依賴,進而從 x S 中選出不適合代表輸入訊號的特徵。l( z S ,y S ;{ θ j })是每一個分類器在對應資料來源的有標籤的資料上的耗損的加總,意即每一個來源分類器的預測誤差,其中預測誤差是越小越好。
處理器11可透過梯度下降法(Gradient Descent)等方式計算出公式(9)中所示的 Θ 、 Θ' 與{ θ j }的封閉解。於某些實施例中,在計算出 Θ 、 Θ' 與{ θ j }的封閉解之後,處理器11可根據以下公式建立以 θ T 表示的分類器f T (相當於預測模型60或62):
x T 為目標商品(可以是該等商品C1~CN中的任一個)的特徵集合,而f T ( x T )為預測模型60或預測模型62針對該目標商品所預測的市場需求(例如該商品的銷售量)。公式(15)相當於是將每一個分類器f T 所估測的市場需求進行投票(例如進行平均),然後將投票的結果作為該目標商品的市場需求。
於某些實施例中,在計算出 Θ 與{ θ j }的封閉解之後,處理器11也可再次透過自動編碼器將 x S 編碼為 z S ,然後基於各種分類演算法(例如支撐向量機、邏輯回歸...等),針對有標籤特徵進行訓練,以求出以 θ T 表示的聯合分類器(unified classifier)f T (相當於預測模型60或62)。然後,利用
聯合分類器f T 來估測目標商品的市場需求。
針對第4B圖所示的一個K×N的潛在特徵矩陣42(K為大於等於1且小於等於P的整數),處理器11同樣可根據上述公式(14)與(15)來求得以 θ T 表示的分類器f T 或聯合分類器f T 。差異僅在於此時公式(14)與(15)中,資料來源的總數r被設定為1。
於某些實施例中,上述深度學習程序還可包含一轉移學習程序,使得處理器11可根據預測模型60或62預測一新商品的市場需求。此處所述的新商品可以是對應至包含無標籤特徵的資料的商品,或者是對應至新進的未知資料(或未訓練過的資料)的商品。
舉例而言,處理器11可以採用同感正則自動編碼器(Consensus Regularized Autoencoder)來實現上述轉移學習程序。同感正則自動編碼器可在維持類神經網路的預測誤差儘量小的情況下,將在多個來源領域的訓練資料及結果(包含有標籤特徵的資料)轉移到在新領域學習特徵時所用,藉此預測新商品的市場需求。關於同感正則自動編碼器,“F.Zhuang,X”等人在“European Conference on Machine Learning”所發表的文章“Transfer Learning with Multiple Sources via Consensus Regularized Autoencoders”以引用的方式全文併入此處。
詳言之,針對第4A圖所示的L個K×N的潛在特徵矩陣40(K為大於等於1且小於等於M的整數)或針對第4B圖所示的一個K×N的潛在特徵矩陣42(K為大於等於1且小於等於P的整數),處理器11可根據同感正則自動編碼器設定以下目標函數:
(16)其中:, x S 為L個潛在特徵矩陣40中的特徵集合,為 x S 經由編碼以及解碼後所重建的特徵集合, x T 為目標領域的特徵集合(即新商品的特徵集合),為 x T 經由編碼以及解碼後所重建的特徵集合,r為該等資料來源S1~SL的總數L,n j 為該特徵集合中特徵的總數;Ω( Θ,Θ' )=∥ W ∥2+∥ b ∥2+∥ W' ∥2+∥ b' ∥2,Θ={W,b},Θ'={W',b'}, W 和 b 分別編碼器的權重矩陣以及偏差向量,而 W' 和 b' 分別解碼器的權重矩陣以及偏差向量;, z S 是 x S 的編碼,y S 是該特徵集合中的有標籤特徵, θ j 是第j個分類器的參數向量,σ(.)為S函數(sigmoid function);, z T 是 x T 的編碼;以及γ、α、λ、β為可調參數,其數值範圍介於0~1。
相較於公式(14),公式(16)評估的參數增加了: x T 經由自動編碼器編碼後的重建誤差;以及來源分類器在目標領域上的預測的同感正則項ψ( z T ;{ θ j })。在以投票的方式決定預測結果的情況下,若投票的結果越一致(或相似),則ψ( z T ;{ θ j })的數值越大。於公式(16)中,ψ( z T ;{ θ j })是與其他項相減,故若投票的結果越一致(或相似),則表示誤差越小。
同樣地,處理器11可透過梯度下降法等方式計算出公式(16)中所示的 Θ 、 Θ' 與{ θ j }的封閉解。然後,於某些實施例,處理器11可根據方程式(15)建立以 θ T 表示的分類器f T (相當於預測模型60或62),並根據分類器f T 預測一目標商品的市場需求(例如該商品的銷售量)。
另外,於某些實施例,在計算出 Θ 、 Θ' 與{ θ j }的封閉解之後,處理器11也可再次透過自動編碼器將 x S 編碼為 z S ,然後基於各種分類演算法(例如支撐向量機、邏輯回歸...等),針對有標籤特徵進行訓練,以求出以 θ T 表示的聯合分類器f T 。然後,利用聯合分類器f T 來估測該目標商品的市場需求。
第5圖例示了在本發明的一或多個實施例中一種用於預測商品的市場需求的方法,但第5圖所示的方法只是一個範例,而非為了限制本發明。參照第5圖,一種用於預測商品的市場需求的方法5可包含以下步驟:由一計算機裝置針對複數商品中的每一個建立多來源資料,該全部多來源資料中的每一個來自於複數資料來源(標示為501);由該計算機裝置儲存該全部多來源資料(標示為503);由該計算機裝置針對各該商品而從該全部多來源資料中的一相應多來源資料中萃取複數特徵,以針對各該資料來源建立一特徵矩陣(標示為505);由該計算機裝置針對該等特徵矩陣進行一張量分解程序,以產生至少一潛在特徵矩陣(標示為507);以及由該計算機裝置針對該至少一潛在特徵矩陣進行一深度學習程序以建立一預測模型,並根據該預測模型預測各該商品的市場需求(標示為509)。於第5圖中,步驟501-509的呈現順序並非為了限制本發明,且這樣的呈現順序可在不超出本發明的精神的前提下被調整。
於某些實施例中,方法5可更包含下列步驟:由該計算機裝置在該等資料來源中針對各該商品進行一同義字整合程序以及一文字媒合程序,以分別建立與各該商品相關的該多來源資料。
於某些實施例中,該計算機裝置針對各該商品所萃取的該等特徵可包含至少一商品特徵,且該至少一商品特徵可與商品基本資料、影響商品因子、商品評價以及商品銷售紀錄其中至少一種相關。
於某些實施例中,該計算機裝置針對各該商品所萃取的該等特徵可包含至少一文字特徵,且該計算機裝置可基於一特徵因子分析、一情緒分析以及一語意分析其中至少一種來萃取該至少一文字特徵。
於某些實施例中,該計算機裝置針對各該商品所萃取的該等特徵可包含至少一社群特徵,且該計算機裝置可基於各該商品的一社群網路討論度來萃取該至少一社群特徵。
於某些實施例中,方法5可更包含下列步驟:在該計算機裝置針對該等特徵矩陣進行該張量分解程序之前,由該計算機裝置針對該等特徵矩陣進行一商品相似度比對程序與一遺失值插補程序。
於某些實施例中,該計算機裝置可基於一預定義的特徵維度值來針對該等特徵矩陣進行該張量分解程序。
於某些實施例中,該深度學習程序可更包含一轉移學習程序。另外,方法5可更包含下列步驟:由該計算機裝置根據該預測模型預測一新商品的市場需求。
於某些實施例中,方法5可應用至計算機裝置1,並完成計算機裝置1的全部運作。由於本發明所屬技術領域中具有通常知識者可根據上
文針對計算機裝置1的說明而直接得知方法5如何完成該等運作的相對應步驟,故相關細節於此不再贅述。
綜上所述,為了考量更多可能影響市場需求的因素,本發明根據多個商品的多個資料來源的資料來建立用於預測市場需求的預測模型,故相對於傳統的簡單預測模型,本發明所建立的預測模型可針對現今商品的市場需求提供更準確的預測。另外,在本發明建立該預測模型的過程中,採用了一張量分解程序來分解原始的特徵矩陣,藉此降低因考量更多可能影響市場需求的因素而增加的計算量、以及剔除因考量更多可能影響市場需求的因素所增加的雜訊/干擾資料。據此,在商品種類、商品銷售通路與商品資料來源均增長的情況下,本發明已提供了一種用於預測商品的市場需求的有效方案。
以上所揭露的各種實施例並非為了限制本發明。本發明所屬技術領域中具有通常知識者可輕易完成的改變或均等性的安排都落於本發明的範圍內。本發明的範圍以申請專利範圍所載內容為準。
5‧‧‧用於預測商品的市場需求的方法
501~509‧‧‧步驟
Claims (16)
- 一種用於預測商品的市場需求的計算機裝置,包含:一處理器,用以針對複數商品中的每一個建立多來源資料,該全部多來源資料中的每一個來自於複數資料來源;以及一儲存器,用以儲存該全部多來源資料;其中,該處理器更用以:針對各該商品而從該全部多來源資料中的一相應多來源資料中萃取複數特徵,以針對各該資料來源建立一特徵矩陣;針對該等特徵矩陣進行一張量分解程序,以產生至少一潛在特徵矩陣;以及針對該至少一潛在特徵矩陣進行一深度學習程序以建立一預測模型,並根據該預測模型預測各該商品的市場需求。
- 如請求項1所述的計算機裝置,其中該處理器更在該等資料來源中針對各該商品進行一同義字整合程序以及一文字媒合程序,以分別建立與各該商品相關的該多來源資料。
- 如請求項1所述的計算機裝置,其中該處理器針對各該商品所萃取的該等特徵包含至少一商品特徵,且該至少一商品特徵與商品基本資料、影響商品因子、商品評價以及商品銷售紀錄其中至少一種相關。
- 如請求項1所述的計算機裝置,其中該處理器針對各該商品所萃取的該等特徵包含至少一文字特徵,且該處理器基於一特徵因子分析、一情緒分析以及一語意分析其中至少一種來萃取該至少一文字特徵。
- 如請求項1所述的計算機裝置,其中該處理器針對各該商品所萃取的該等 特徵包含至少一社群特徵,且該處理器基於各該商品的一社群網路討論度來萃取該至少一社群特徵。
- 如請求項1所述的計算機裝置,其中在該處理器針對該等特徵矩陣進行該張量分解程序之前,該處理器更針對該等特徵矩陣進行一商品相似度比對程序與一遺失值插補程序。
- 如請求項1所述的計算機裝置,其中該處理器基於一預定義的特徵維度值來針對該等特徵矩陣進行該張量分解程序。
- 如請求項1所述的計算機裝置,其中該深度學習程序更包含一轉移學習程序,且該處理器更根據該預測模型預測一新商品的市場需求。
- 一種用於預測商品的市場需求的方法,包含:由一計算機裝置針對複數商品中的每一個建立多來源資料,該全部多來源資料中的每一個來自於複數資料來源;由該計算機裝置儲存該全部多來源資料;由該計算機裝置針對各該商品而從該全部多來源資料中的一相應多來源資料中萃取複數特徵,以針對各該資料來源建立一特徵矩陣;由該計算機裝置針對該等特徵矩陣進行一張量分解程序,以產生至少一潛在特徵矩陣;以及由該計算機裝置針對該至少一潛在特徵矩陣進行一深度學習程序以建立一預測模型,並根據該預測模型預測各該商品的市場需求。
- 如請求項9所述的方法,更包含:由該計算機裝置在該等資料來源中針對各該商品進行一同義字整合程序以及一文字媒合程序,以分別建立與各該商品相關的該多來源資料。
- 如請求項9所述的方法,其中該計算機裝置針對各該商品所萃取的該等特徵包含至少一商品特徵,且該至少一商品特徵與商品基本資料、影響商品因子、商品評價以及商品銷售紀錄其中至少一種相關。
- 如請求項9所述的方法,其中該計算機裝置針對各該商品所萃取的該等特徵包含至少一文字特徵,且該計算機裝置基於一特徵因子分析、一情緒分析以及一語意分析其中至少一種來萃取該至少一文字特徵。
- 如請求項9所述的方法,其中該計算機裝置針對各該商品所萃取的該等特徵包含至少一社群特徵,且該計算機裝置基於各該商品的一社群網路討論度來萃取該至少一社群特徵。
- 如請求項9所述的方法,更包含:在該計算機裝置針對該等特徵矩陣進行該張量分解程序之前,由該計算機裝置針對該等特徵矩陣進行一商品相似度比對程序與一遺失值插補程序。
- 如請求項9所述的方法,其中該計算機裝置基於一預定義的特徵維度值來針對該等特徵矩陣進行該張量分解程序。
- 如請求項9所述的方法,其中該深度學習程序更包含一轉移學習程序,且該方法更包含:由該計算機裝置根據該預測模型預測一新商品的市場需求。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW105140087A TWI612488B (zh) | 2016-12-05 | 2016-12-05 | 用於預測商品的市場需求的計算機裝置與方法 |
CN201611114421.2A CN108154378A (zh) | 2016-12-05 | 2016-12-07 | 用于预测商品的市场需求的计算机装置与方法 |
US15/372,374 US20180158078A1 (en) | 2016-12-05 | 2016-12-07 | Computer device and method for predicting market demand of commodities |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW105140087A TWI612488B (zh) | 2016-12-05 | 2016-12-05 | 用於預測商品的市場需求的計算機裝置與方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI612488B true TWI612488B (zh) | 2018-01-21 |
TW201822098A TW201822098A (zh) | 2018-06-16 |
Family
ID=61728441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW105140087A TWI612488B (zh) | 2016-12-05 | 2016-12-05 | 用於預測商品的市場需求的計算機裝置與方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180158078A1 (zh) |
CN (1) | CN108154378A (zh) |
TW (1) | TWI612488B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI724644B (zh) * | 2019-11-22 | 2021-04-11 | 中華電信股份有限公司 | 基於類神經網路之語音或文字文件摘要系統及方法 |
US11416733B2 (en) | 2018-11-19 | 2022-08-16 | Google Llc | Multi-task recurrent neural networks |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10599449B1 (en) | 2016-12-22 | 2020-03-24 | Amazon Technologies, Inc. | Predictive action modeling to streamline user interface |
CN108959312B (zh) * | 2017-05-23 | 2021-01-29 | 华为技术有限公司 | 一种多文档摘要生成的方法、装置和终端 |
JP7006296B2 (ja) * | 2018-01-19 | 2022-01-24 | 富士通株式会社 | 学習プログラム、学習方法および学習装置 |
CN109447698B (zh) * | 2018-10-18 | 2021-01-29 | 广州云从人工智能技术有限公司 | 一种基于神经网络的推荐方法 |
KR20200108521A (ko) * | 2019-03-04 | 2020-09-21 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
KR102050855B1 (ko) * | 2019-03-25 | 2020-01-08 | 강태기 | 수요 예측 장치 및 방법 |
US11107100B2 (en) * | 2019-08-09 | 2021-08-31 | International Business Machines Corporation | Distributing computational workload according to tensor optimization |
CN110658720B (zh) * | 2019-09-27 | 2022-04-19 | 电子科技大学 | 一种基于神经网络的新型展台系统 |
CN111127072A (zh) * | 2019-11-14 | 2020-05-08 | 浙江大学 | 一种新产品需求的多阶段实时预测方法 |
CN111008874B (zh) * | 2019-12-20 | 2023-06-06 | 浙江大学 | 技术趋势预测方法、系统及存储介质 |
CN111178624B (zh) * | 2019-12-26 | 2023-10-20 | 浙江大学 | 一种新产品需求预测的方法 |
CN111291895B (zh) * | 2020-01-17 | 2022-06-28 | 支付宝(杭州)信息技术有限公司 | 组合特征评估模型的样本生成和训练方法及装置 |
CN111310050B (zh) * | 2020-02-27 | 2023-04-18 | 深圳大学 | 一种基于多层注意力的推荐方法 |
CN111553759A (zh) * | 2020-03-25 | 2020-08-18 | 平安科技(深圳)有限公司 | 一种产品信息推送方法、装置、设备及存储介质 |
US11451480B2 (en) | 2020-03-31 | 2022-09-20 | Micron Technology, Inc. | Lightweight artificial intelligence layer to control the transfer of big data |
CN112241904B (zh) * | 2020-10-23 | 2024-07-19 | 浙江集享电子商务有限公司 | 商品销售量预测方法、装置、计算机设备和存储介质 |
TWI752822B (zh) * | 2021-02-09 | 2022-01-11 | 阿物科技股份有限公司 | 有價字詞萃取及形成有價字詞網之方法及其系統 |
US20230024884A1 (en) * | 2021-07-20 | 2023-01-26 | Oracle International Corporation | Balancing feature distributions using an importance factor |
US11989770B2 (en) * | 2021-08-18 | 2024-05-21 | Maplebear Inc. | Personalized recommendation of complementary items to a user for inclusion in an order for fulfillment by an online concierge system based on embeddings for a user and for items |
CN114049505B (zh) * | 2021-10-11 | 2022-08-23 | 数采小博科技发展有限公司 | 一种商品的匹配与识别方法、装置、设备和介质 |
CN114021788B (zh) * | 2021-10-25 | 2022-07-26 | 深圳市维度数据科技股份有限公司 | 预测方法、装置、电子设备和存储介质 |
KR102510463B1 (ko) * | 2021-11-09 | 2023-03-16 | 주식회사 하이퍼리서치 | 상권 분석 정보 제공 방법 및 이를 기록한 기록매체 |
CN115019084B (zh) * | 2022-05-16 | 2024-05-28 | 电子科技大学 | 一种基于张量多属性特征迁移的分类方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201333863A (zh) * | 2012-02-03 | 2013-08-16 | pei-wen Zhou | 金融商品之走勢力道分析系統及其方法 |
WO2014100321A2 (en) * | 2012-12-21 | 2014-06-26 | Microsoft Corporation | Feature embedding in matrix factorization |
TW201513013A (zh) * | 2013-09-26 | 2015-04-01 | Telexpress Corp | 用於電子化文章之商品評價用詞發掘方法及其系統 |
TW201619882A (zh) * | 2014-11-24 | 2016-06-01 | 財團法人資訊工業策進會 | 商品銷量預測系統、商品銷量預測方法及其非暫態電腦可讀取記錄媒體 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103617548B (zh) * | 2013-12-06 | 2016-11-23 | 中储南京智慧物流科技有限公司 | 一种趋势性、周期性商品的中长期需求预测方法 |
CN103617458A (zh) * | 2013-12-06 | 2014-03-05 | 李敬泉 | 一种短期商品需求预测方法 |
CN103617459A (zh) * | 2013-12-06 | 2014-03-05 | 李敬泉 | 一种多影响因素下商品需求信息预测方法 |
-
2016
- 2016-12-05 TW TW105140087A patent/TWI612488B/zh active
- 2016-12-07 US US15/372,374 patent/US20180158078A1/en not_active Abandoned
- 2016-12-07 CN CN201611114421.2A patent/CN108154378A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201333863A (zh) * | 2012-02-03 | 2013-08-16 | pei-wen Zhou | 金融商品之走勢力道分析系統及其方法 |
WO2014100321A2 (en) * | 2012-12-21 | 2014-06-26 | Microsoft Corporation | Feature embedding in matrix factorization |
TW201513013A (zh) * | 2013-09-26 | 2015-04-01 | Telexpress Corp | 用於電子化文章之商品評價用詞發掘方法及其系統 |
TW201619882A (zh) * | 2014-11-24 | 2016-06-01 | 財團法人資訊工業策進會 | 商品銷量預測系統、商品銷量預測方法及其非暫態電腦可讀取記錄媒體 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11416733B2 (en) | 2018-11-19 | 2022-08-16 | Google Llc | Multi-task recurrent neural networks |
TWI808219B (zh) * | 2018-11-19 | 2023-07-11 | 美商谷歌有限責任公司 | 用於多任務遞迴神經網路的方法、系統及設備 |
US12033056B2 (en) | 2018-11-19 | 2024-07-09 | Google Llc | Multi-task recurrent neural networks |
TWI724644B (zh) * | 2019-11-22 | 2021-04-11 | 中華電信股份有限公司 | 基於類神經網路之語音或文字文件摘要系統及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108154378A (zh) | 2018-06-12 |
US20180158078A1 (en) | 2018-06-07 |
TW201822098A (zh) | 2018-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI612488B (zh) | 用於預測商品的市場需求的計算機裝置與方法 | |
Wołk | Advanced social media sentiment analysis for short‐term cryptocurrency price prediction | |
US11714831B2 (en) | Data processing and classification | |
Bai et al. | Crude oil price forecasting incorporating news text | |
Ren et al. | Matching algorithms: Fundamentals, applications and challenges | |
Jammalamadaka et al. | Predicting a stock portfolio with the multivariate Bayesian structural time series model: Do news or emotions matter? | |
CN111737578B (zh) | 一种推荐方法及系统 | |
CN107688870B (zh) | 一种基于文本流输入的深度神经网络的分层因素可视化分析方法及装置 | |
Wang et al. | Bridging the semantic gap between customer needs and design specifications using user-generated content | |
Xiao et al. | User preference mining based on fine-grained sentiment analysis | |
Angadi et al. | Multimodal sentiment analysis using reliefF feature selection and random forest classifier | |
Lu et al. | Graph‐Based Collaborative Filtering with MLP | |
Wei et al. | Sentiment classification of Chinese Weibo based on extended sentiment dictionary and organisational structure of comments | |
Li et al. | The user preference identification for product improvement based on online comment patch | |
Li et al. | Stock market analysis using social networks | |
Lu et al. | Sentiment analysis method of network text based on improved AT‐BiGRU model | |
Pathak et al. | Adaptive framework for deep learning based dynamic and temporal topic modeling from big data | |
Zhang et al. | Modeling and prediction of stock price with convolutional neural network based on blockchain interactive information | |
Zhang et al. | Describe the house and I will tell you the price: House price prediction with textual description data | |
Martin et al. | Predicting the French stock market using social media analysis | |
Ren et al. | A co-attention based multi-modal fusion network for review helpfulness prediction | |
Suresh Kumar et al. | Local search five‐element cycle optimized reLU‐BiLSTM for multilingual aspect‐based text classification | |
Shou et al. | Predictions on usefulness and popularity of online reviews: evidence from mobile phones for older adults | |
Dong | Financial investor sentiment analysis based on FPGA and convolutional neural network | |
CN116823321B (zh) | 一种电商用经济管理数据分析方法及系统 |