TW201923624A - 一種資料樣本標籤處理方法及裝置 - Google Patents

一種資料樣本標籤處理方法及裝置 Download PDF

Info

Publication number
TW201923624A
TW201923624A TW107132422A TW107132422A TW201923624A TW 201923624 A TW201923624 A TW 201923624A TW 107132422 A TW107132422 A TW 107132422A TW 107132422 A TW107132422 A TW 107132422A TW 201923624 A TW201923624 A TW 201923624A
Authority
TW
Taiwan
Prior art keywords
label
samples
sample set
learning
uncertain
Prior art date
Application number
TW107132422A
Other languages
English (en)
Other versions
TWI694341B (zh
Inventor
陳凡
齊翔
王德勝
王韓彬
郭棋林
Original Assignee
香港商阿里巴巴集團服務有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 香港商阿里巴巴集團服務有限公司 filed Critical 香港商阿里巴巴集團服務有限公司
Publication of TW201923624A publication Critical patent/TW201923624A/zh
Application granted granted Critical
Publication of TWI694341B publication Critical patent/TWI694341B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

揭露一種資料樣本標籤處理方法及裝置。一種資料樣本標籤處理方法包括:獲得不確定標籤樣本集和已確定標籤樣本集;利用以下步驟進行迭代處理,直到學習標籤的準確率達到預設的要求:對當前的不確定標籤樣本集和已確定標籤樣本集進行合併,訓練得到預測模型;將不確定標籤樣本輸入預測模型,將模型輸出的預測值確定為不確定標籤樣本的學習標籤;獲得帶有學習標籤的抽樣子集,對抽樣子集的學習標籤進行校驗以獲得學習標籤的準確率,如果學習標籤的準確率未達到預設的要求,則將標籤校驗結果確定為抽樣子集的標註結果,並將抽樣子集從不確定標籤樣本集移至已確定標籤樣本集;迭代結束後,將不確定標籤樣本當前的學習標籤確定為標註結果。

Description

一種資料樣本標籤處理方法及裝置
本說明書實施例係關於資料分析之技術領域,更明確地係關於一種資料樣本標籤處理方法及裝置。
在機器學習領域,利用大量的資料樣本進行訓練,可以獲得各種形式的資料模型以解決實際問題。機器學習可分為有監督學習和無監督學習,其中監督學習是利用一組已知類別的資料樣本來調整預測模型的參數、使其達到性能要求的過程。監督學習使用的訓練樣本均為已標記樣本,即每條樣本同時包含“特徵值”和“標籤值”。   有監督學習和無監督學習分別可以適用於一定的需求場景,然而在實際應用中,經常會遇到需要採用有監督學習解決問題、但是資料樣本標籤不準確甚至無標籤的情況。理論上雖然可以採用人工的方式對分別對每條資料樣本的標籤進行糾正或重新標註,然而在大資料的應用場景下,這種純人工的處理方式是不現實的。因此,如何對不確定標籤樣本實現高效、準確的標註,已經成為行業內備受關注的問題。
針對上述技術問題,本說明書實施例提供一種資料樣本標籤處理方法及裝置,技術方案如下:   根據本說明書實施例的第一態樣,提供一種資料樣本標籤處理方法,該方法包括:   獲得不確定標籤樣本集和已確定標籤樣本集;利用以下步驟進行迭代處理,直到學習標籤的準確率達到預設的要求:   對當前的不確定標籤樣本集和已確定標籤樣本集進行合併,利用合併後的樣本訓練得到預測模型;   將不確定標籤樣本集中的不確定標籤樣本輸入預測模型,將模型輸出的預測值確定為不確定標籤樣本的學習標籤;   根據當前的不確定標籤樣本集,獲得帶有學習標籤的抽樣子集,對抽樣子集的學習標籤進行校驗以獲得學習標籤的準確率,如果學習標籤的準確率未達到預設的要求,則將標籤校驗結果確定為抽樣子集的標註結果,並將抽樣子集從不確定標籤樣本集移至已確定標籤樣本集;   迭代結束後,將不確定標籤樣本當前的學習標籤確定為標註結果。   根據本說明書實施例的第二態樣,提供一種資料模型訓練方法,該方法包括:   獲得不確定標籤樣本集和已確定標籤樣本集;利用以下步驟進行迭代處理,直到學習標籤的準確率達到預設的要求:   對當前的不確定標籤樣本集和已確定標籤樣本集進行合併,利用合併後的樣本訓練得到預測模型;   將所述不確定標籤樣本集中的不確定標籤樣本輸入所述預測模型,將模型輸出的預測值確定為不確定標籤樣本的學習標籤;   對帶有學習標籤的不確定標籤樣本集進行抽樣得到抽樣子集,對抽樣子集的學習標籤進行校驗以獲得學習標籤的準確率,如果學習標籤的準確率未達到預設的要求,則將標籤校驗結果確定為抽樣子集的標註結果,並將抽樣子集從不確定標籤樣本集移動至已確定標籤樣本集;   迭代結束後,將當前的預測模型確定為適用於所述不確定標籤樣本集的預測模型。   根據本說明書實施例的第三態樣,提供一種資料樣本標籤處理裝置,該裝置包括:   輸入模組,用於獲得不確定標籤樣本集和已確定標籤樣本集;   學習模組,用於對當前的不確定標籤樣本集和已確定標籤樣本集進行合併,利用合併後的樣本訓練得到預測模型;將不確定標籤樣本集中的不確定標籤樣本輸入預測模型,將模型輸出的預測值確定為不確定標籤樣本的學習標籤;   校驗模組,用於根據當前的不確定標籤樣本集,獲得帶有學習標籤的抽樣子集,對抽樣子集的學習標籤進行校驗以獲得學習標籤的準確率,如果學習標籤的準確率未達到預設的要求,則將標籤校驗結果確定為抽樣子集的標註結果,並將抽樣子集從不確定標籤樣本集移至已確定標籤樣本集;   所述學習模組和所述校驗模組相互配合實現迭代處理,直到學習標籤的準確率達到預設的要求;   輸出模組,用於在迭代結束後,將不確定標籤樣本當前的學習標籤確定為標註結果。   根據本說明書實施例的第四態樣,提供一種資料模型訓練裝置 ,該裝置包括:   輸入模組,用於獲得不確定標籤樣本集和已確定標籤樣本集;   學習模組,用於對當前的不確定標籤樣本集和已確定標籤樣本集進行合併,利用合併後的樣本訓練得到預測模型;將不確定標籤樣本集中的不確定標籤樣本輸入預測模型,將模型輸出的預測值確定為不確定標籤樣本的學習標籤;   校驗模組,用於根據當前的不確定標籤樣本集,獲得帶有學習標籤的抽樣子集,對抽樣子集的學習標籤進行校驗以獲得學習標籤的準確率,如果學習標籤的準確率未達到預設的要求,則將標籤校驗結果確定為抽樣子集的標註結果,並將抽樣子集從不確定標籤樣本集移至已確定標籤樣本集;   所述學習模組和所述校驗模組相互配合實現迭代處理,直到學習標籤的準確率達到預設的要求;   輸出模組,用於在迭代結束後,將當前的預測模型確定為適用於所述不確定標籤樣本集的預測模型。   本說明書實施例所提供的技術方案,在已擁有大量已確定標籤樣本集的情況下,首先通過對已知標籤樣本資訊的學習,對不確定標籤樣本的標籤進行初步標註,以得到不確定標籤樣本的學習標籤,然後對學習標籤進行抽樣校驗,並將校驗後的結果回饋至學習階段,使其利用校驗後的結果重新進行學習。通過上述方式來不斷改善學習結果,直到滿足需求。應用上述方案,不僅可以在僅付出少量校驗成本的情況下,實現對不確定標籤的標註或糾正,還能夠針對不確定標籤樣本的自有特徵,得到可適用於不確定標籤樣本的預測模型。   應當理解的是,以上的一般描述和後文的細節描述僅是示例性和解釋性的,並不能限制本說明書實施例。   此外,本說明書實施例中的任一實施例並不需要達到上述的全部效果。
為了使本領域技術人員更好地理解本說明書實施例中的技術方案,下面將結合本說明書實施例中的附圖,對本說明書實施例中的技術方案進行詳細地描述,顯然,所描述的實施例僅僅是本說明書的一部分實施例,而不是全部的實施例。基於本說明書中的實施例,本領域普通技術人員所獲得的所有其他實施例,都應當屬於保護的範圍。   在對資料進行分類預測等應用場景(例如垃圾資訊識別、欺詐行為識別等),理想的情況是所有的資料樣本都帶有標籤,從而通過有監督學習得到預測模型。雖然對資料樣本進行標記的代價較高,但是為了得到性能較好的預測模型,在實現需求的初期也不可避免地要投入成本,以得到數量足夠的有標籤樣本。   當訓練得到的模型性能達到需求後,就可以投入使用以對未知資料進行分類預測了。但是實際應用中,可能會出現的情況是:由於業務領域、應用場景等方面的差別,導致未知資料與訓練模型時所使用資料樣本的特徵並不完全相同,因此使用已有的模型對這些未知資料進行預測時,經常達不到期望的效果。例如,對於“識別垃圾資訊”這一需求,根據電商平臺的交易評論內容訓練出的識別模型,如果用來識別視訊網站評論內容中的垃圾資訊,很有可能會出現大量的識別錯誤。   另一種類似的問題是:給定一批“新類型”的資料,希望能夠據此訓練出適用於這批資料的識別模型。然而這批資料可能是完全不帶有任何標籤,也可能是全部或部分帶有標籤、但是無法保證這些標籤的準確性(例如可能是粗糙標註等原因導致)。例如,給定一批視訊網站中的評論內容,希望訓練出適用於網站中垃圾評論內容識別的模型。那麼,根據現有技術,如果要滿足模型訓練的要求,又需要花費大量成本對這批新類型資料進行標註。   針對上述需求,本說明書實施例提供一種資料樣本標籤處理方案,該方案的設計架構如圖1所示,具體架構說明如下:   1)輸入部分:   以“不確定標籤樣本集”和“已確定標籤樣本集”作為輸入資訊。   其中“不確定標籤樣本集”中的樣本可能是完全不帶有任何標籤,也可能是全部或部分帶有標籤、但是無法保證這些標籤的準確性。   “已確定標籤樣本集”指當前已擁有的、攜帶可靠標籤的樣本集合。具體的標籤來源這裡不做限定,總之可以將這部分視為已知資訊。   實際情況中,“不確定標籤樣本集”和“已確定標籤樣本集”的整體使用需求相同,但又具有不同的資料特徵。例如前面例子中的 “視訊網站評論內容”和“交易平臺評論內容”,都是用於識別垃圾評論內容,但是不同領域的評論內容又各有特色。則前者相當於“未確定標籤樣本集”,後者相當於“已確定標籤樣本集”。   為便於描述,後續將分別以符號“U”和“L”表示“不確定標籤樣本集”和“已確定標籤樣本集”。   2)輸出部分:   以“U的標註結果”和“適用於U的預測模型”作為輸出資訊,當然在實際應用中,可能只需要上述兩種輸出資訊中的一種。   3)學習模組:   學習模組又可以進一步分為訓練和標註兩個子模組(圖中未示出):   a訓練子模組:   以U和L的合併結果作為依據,通過訓練得到預測模型。其中根據U的具體情況不同,將採用不同訓練方式:   如果U中樣本均帶有標籤,則對U和L進行合併後,使用有監督學習的方式訓練得到預測模型。   如果U中樣本完全不帶有任何標籤、或者僅部分樣本帶有標籤,則對U和L進行合併後,使用半監督學習的方式訓練得到預測模型。   可見,無論採用哪種訓練方式,由於訓練資料覆蓋了兩類資料的不同特徵,因此訓練出的模型都能夠適用於兩種不同資料類型的預測。   b標註子模組:   利用訓練子模組訓練出的模型,對U中的資料進行預測,將預測結果定義為“學習標籤”。   4)校驗模組:   由於學習模組的訓練過程中,使用了大量了“不確定標籤樣本”,因此初期訓練得到的模型效果很一般是不理想的(除非U中有大量標註結果正確的樣本、而且這個結論是預先已知的,但是這種情況也就沒有必要使用合併的樣本進行訓練了),因此需要對學習標籤進行校驗。   為保證校驗結果的可靠性,這裡可以採用人工參與的方式進行校驗,校驗模組可提供樣本資料、標註結果等資訊的顯示功能,並且提供標註或糾錯等操作介面,以方便相關人員進行校驗。當然,在能夠保證校驗結果可靠性的前提下,還也可以採用其他方式實現校驗,本申請對此並不進行限定。   值得說明的是,由於校驗模組的功能僅是從整體上評估標註結果是否理想,因此這裡並不需要對所有的學習標籤都進行校驗,只需對少量抽樣資料進行校驗即可,從而實現校驗代價的節省。   如果評估結果不理想,則需要觸發新一輪的標籤學習。另一方面,從“不確定標籤樣本”中抽樣出的資料,經過標籤校驗後,就可以當作“確定標籤樣本”使用,因此將校驗結果回饋給標籤學習系統後,能夠令每次標籤學習的準確率不斷趨於優化。兩個模組通過上述方式配合,可以進行多次再學習,直到校驗結果滿足需求。   基於上述設計方案,本說明書進一步提供相應的資料樣本標籤處理方法,參見圖2所示,該方法可以包括以下步驟:   S101,獲得不確定標籤樣本集和已確定標籤樣本集;   為描述方便,在本實施例中,仍以符號“U”和“L”表示“不確定標籤樣本集”和“已確定標籤樣本集”。   如前所述,U中的樣本可能是完全不帶有任何標籤,也可能是全部或部分帶有標籤、但是無法保證這些標籤的準確性。而L則指代當前已擁有的、攜帶可靠標籤的樣本集合。U和L的整體使用需求相同,但又具有不同的資料特徵。   根據前面的描述可知,訓練模型時,採用U和L的合併結果作為訓練樣本,而模型訓練的一個重要需求是:使得模型能夠適用於U和L兩種不同的資料類型的預測,這就要求U和L都要達到一定的樣本數量,而且U和L的比例相差不能過於懸殊。由於單獨利用L已經能夠單獨訓練出性能滿足需求的模型,因此這裡可以認為L中樣本的絕對數量是足夠的;但是U的樣本數量則具有很大的不確定性,如果U中的樣本數量過少,則在無法在訓練過程中提供足夠的U的資料特徵,進而導致訓練出的模型對無法更好地適應對U類資料的預測。   如果U中的樣本數量不足,則可以使用GAN(Generative Adversarial Networks,生成式對抗網路),模擬U的情況再生成一部分樣本。   GAN是一種可以根據已有的真實樣本構建出新樣本的技術,GAN由生成模型(generative model)和判別模型(discriminative model)組成。生成模型的功能是捕捉已有樣本資料的分佈,用服從某一分佈(例如均勻分佈,高斯分佈等)的雜訊生成類似真實樣本據的新樣本,追求效果是越像真實樣本越好;判別模型是一個二分類器,用於判斷一個樣本是真實樣本還是生成樣本。   在GAN的訓練過程中固定一方,更新另一方的網路權重,交替迭代,在這個過程中,生成模型和判別模型雙方都極力優化自己的網路,從而形成競爭對抗,直到雙方達到一個動態的平衡,此時生成模型恢復了訓練資料的分佈(造出了和真實樣本一模一樣的樣本),判別模型也無法再判斷出是真實樣本還是生成樣本。   因此,假設初始給定的待處理樣本(本說明書中以U0 表示)數量無法滿足訓練需求,則可以將U0 輸入GAN,由GAN輸出與U0 同分佈的生成樣本集(本說明書中以UG 表示);然後將U0 與UG 進行合併,如圖3所示,即有以下關係:    U=U0 +UG 可以理解的是,本說明書中的“同分佈”,並不是嚴格數學意義上的同分佈,而是GAN所模擬出的同分佈。   由於GAN既可以生成有標籤樣本,也可以生成無標籤樣本,那麼可以根據U0 的不同情況,採用不同的樣本生成方式:   如果U0 中的樣本均為有標籤樣本,則可以有兩種處理方式:   1)將U0 的特徵部分和標籤部分均輸入GAN,得到帶有標籤的UG ,這種情況下,U中的樣本也均為有標籤樣本。   2)僅將U0 的特徵部分輸入GAN,得到不帶標籤的UG ,這種情況下,U中僅部分樣本帶有標籤。   如果U0 中的樣本中的樣本均為無標籤樣本、或僅部分樣本帶有標籤,則可以將U0 的特徵部分輸入GAN,得到不帶標籤的UG ,這種情況下,U中樣本的標籤攜帶情況與U0 一致。   需要生成UG 的樣本數量可以根據訓練需求確定,這裡的訓練既包括對樣本絕對數量的需求、也包括對樣本相對數量的需求。一般而言,希望U與L的比例不低於1:4,當然U也可以比L更大,該比例需求可以根據實際情況設計,本申請對此不需要進行限定。   S102,對當前的不確定標籤樣本集和已確定標籤樣本集進行合併,利用合併後的樣本訓練得到預測模型;   使用合併後的樣本集S(其中S=U+L)進行模型訓練,由於L中的樣本都是帶有標籤的,因此根據U中樣本的標籤攜帶情況將決定S中樣本的標籤攜帶情況。   如果U中樣本均帶有標籤,則S中樣本也均帶有標籤,此時訓練需求轉化為有監督學習問題。   如果U中樣本均不帶有標籤、或部分帶有標籤,則S中樣本也是部分帶有標籤的,此時訓練需求轉化為半監督學習問題。半監督學習是也一種利用部分有標籤樣本以及部分無標籤樣本實現模型訓練的技術,值得注意的是,現有技術中,半監督學習所針對的有標籤樣本和無標籤樣本是同一類型的資料樣本,而本申請中U和L是兩套並不完全一致的樣本,因此嚴格意義上講與半監督學習的傳統應用場景有所區別。由於其整體需求相同,因此在演算法層面仍然可以使用半監督學習演算法,但是其訓練結果需要配合後續的校驗步驟多次調整才能滿足應用需求。   根據具體的應用場景不同,可以選用不同形式的模型以及相應的學習演算法,對於本說明書對此並不限定。例如,對於文本識別應用,可以通過構建基於RNN(Recurrent neural Network,遞迴類神經網路)深度學習模型訓練文本資料。   S103,將不確定標籤樣本集中的不確定標籤樣本輸入預測模型,將模型輸出的預測值確定為不確定標籤樣本的學習標籤;   對於S102所產出的預測模型,可以將U中的樣本輸入該模型,在本說明書中,將模型輸出的預測值稱為樣本的“學習標籤”,值得注意的是,該學習標籤與U中樣本是否帶有標籤或標籤是否準確並無必然關聯。   需要說明的是,這裡的“不確定標籤樣本”既可以是U中的全部樣本,也可用是U中樣本的一部分。   例如,如果在S101採用了GAN生成新樣本,則本步驟中可以僅將當前U中屬U0 的那部分樣本輸入預測模型。這樣處理的原因是,相對於UG 而言,U0 才是真實的資料,後續對這部分資料進行校驗的意義更大,而且從“標註”需求而言,也只有U0 才是真正需要進行標註處理的對象。這裡需要明確的是“屬於U0 的那部分樣本”並不等同於U0 ,這是因為隨著整個方案的迭代,U的規模是逐步縮減的,相應地“屬於U0 的那部分樣本”也會逐步變小。   另外,在本步驟中也可以對U(或U0 )進行抽樣,僅將抽樣結果輸入預測模型,從而得到抽樣結果的學習標籤。抽樣的目的是降低校驗的代價,可以在本步驟實現,也可以在後續步驟中實現。   S104,根據當前的不確定標籤樣本集,獲得帶有學習標籤的抽樣子集,對抽樣子集的學習標籤進行校驗以獲得學習標籤的準確率;   如果在S103中未作抽樣處理,則在本步驟中,對所有帶有學習標籤的樣本進行抽樣,得到抽樣子集;如果在S103中已作抽樣處理,則在本步驟中可以直接使用S103輸出的結果作為抽樣子集。   抽樣的數量可以根據實際需求確定,一般綜合考慮以下幾個因素:   1)是否有足夠的代表性:抽樣數量越大,代表性越好。   2)對校驗代價的影響:抽樣數量越小,校驗代價越低。   3)對迭代速度的影響:抽樣數量越大,則每次校驗後回饋給下一次學習的有用資訊越多,相應也會提高整體方案的迭代速度。   在實際應用中,也可以在迭代過程中使用動態的抽樣率,例如隨著迭代的進行,模型性能逐漸趨於穩定,可以逐步降低抽樣率。當然,本領域技術人員可以根據實際需求設計抽樣方案,本說明書對此不做限定。   S105,判斷學習標籤的準確率是否達到預設的要求,如果是則繼續執行S107,否則執行S106後返回S102;   S106,將標籤校驗結果確定為抽樣子集的標註結果,並將抽樣子集從不確定標籤樣本集移至已確定標籤樣本集;   S107,將不確定標籤樣本當前的學習標籤確定為標註結果。   假設以Us 表示抽樣子集,如果Us 的學習標籤準確率達到某個指標(例如95%),則認為整個U(或U0 )的學習標籤是可信的,可以直接作為標註結果輸出,否則需要觸發下一輪學習。   經過校驗的Us 相當於已經具備了可靠的標籤,因此在下一輪學習中,Us 可以作為“確定標籤樣本”使用,即在每次迭代之前,對U和L做以下更新:    U=U-Us L=L+Us 通過S102~S106的迭代處理,由於具備可靠標籤的樣本逐步增加,而且這些樣本是具有“新類型資料”特徵的樣本,因此能夠令每次標籤學習的準確率不斷趨於優化,並且逐步適應“新類型資料”的預測,最終達到應用需求。   可以理解的是,迭代停止後的U已經和初始的U不同,因此最終的輸的標註結果應包括“當前U中樣本最新的學習標籤”以及“歷次迭代過程中已經過校驗確認可靠的標籤”。   此外,迭代停止後,最終的預測模型也可以作為另一項輸出資訊,如圖4的S108所示(其他步驟與圖2所示一致,這裡不再重複說明),該模型都能夠適用於U和L兩種不同資料類型。   應用本說明書所提供的方案,對於已擁有巨量資料以及較成熟預測模型的企業而言,能夠有效將自身的預測能力向外部輸出,為客戶或合作夥伴提供技術服務,同時也能夠不斷豐富自身模型的預測能力。   例如在電商平臺及支付平臺的風控系統中,已經具有強大的文本識別能力,可以從使用者生成內容中識別出灌水、廣告、暴恐政和黃賭毒等資訊。一些其他行業的外部商戶也具有類似的需求,例如微博、視訊、直播等UGC(User Generated Content,使用者生成內容)相關領域,如果這些外部商戶沒有能力對使用者生成內容樣本進行準確標註,則可以基於本說明書所提供的技術方案,結合電商平臺及支付平臺自身已有的垃圾文本資料以及識別模型,對其他行業提供的樣本資料進行學習。相對於完全人工對外部樣本進行標註或糾正的方式而言效率更高,更容易實現規模化。   相應於上述方法實施例,本說明書實施例還提供一種資料樣本標籤處理裝置或資料模型訓練裝置,參見圖5所示,該裝置可以包括:   輸入模組110,用於獲得不確定標籤樣本集和已確定標籤樣本集;   學習模組120,用於對當前的不確定標籤樣本集和已確定標籤樣本集進行合併,利用合併後的樣本訓練得到預測模型;將不確定標籤樣本集中的不確定標籤樣本輸入預測模型,將模型輸出的預測值確定為不確定標籤樣本的學習標籤;   校驗模組130,用於根據當前的不確定標籤樣本集,獲得帶有學習標籤的抽樣子集,對抽樣子集的學習標籤進行校驗以獲得學習標籤的準確率,如果學習標籤的準確率未達到預設的要求,則將標籤校驗結果確定為抽樣子集的標註結果,並將抽樣子集從不確定標籤樣本集移至已確定標籤樣本集;   學習模組120和校驗模組130相互配合實現迭代處理,直到學習標籤的準確率達到預設的要求;   輸出模組140,可以用於在迭代結束後,將不確定標籤樣本當前的學習標籤確定為標註結果。也可以用於在迭代結束後,將當前的預測模型確定為適用於不確定標籤樣本集的預測模型。   在本說明書提供的一種具體實施方式中,若不確定標籤樣本集中的樣本均為有標籤樣本;則學習模組120可以具體用於:利用有監督學習演算法對合併後的樣本進行訓練,得到預測模型。   若不確定標籤樣本集中的樣本均為無標籤樣本、或僅部分樣本帶有標籤;則學習模組120可以具體用於:利用半監督學習演算法對合併後的樣本進行訓練,得到預測模型。   在本說明書提供的一種具體實施方式中,輸入模組110可以包括:   生成子模組,用於在初始獲得的待處理樣本集中樣本數量未達到預設需求的情況下,將該待處理樣本集輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集;   合併子模組,用於將待處理樣本集與生成樣本集合併,得到不確定標籤樣本集。   在本說明書提供的一種具體實施方式中,學習模組120可以具體用於:   將不確定標籤樣本集中,屬於待處理樣本集的部分輸入預測模型。   在本說明書提供的一種具體實施方式中,若待處理樣本集中的樣本均為有標籤樣本,則生成子模組130可以具體用於:   將該待處理樣本集的特徵部分和標籤部分輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集,生成樣本集中的樣本均為有標籤樣本;   或者   將該待處理樣本集的特徵部分輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集,生成樣本集中的樣本均為無標籤樣本。   若待處理樣本集中的樣本均中的樣本均為無標籤樣本、或僅部分樣本帶有標籤,則生成子模組130可以具體用於:   將該待處理樣本集的特徵部分輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集,生成樣本集中的樣本均為無標籤樣本。   本說明書實施例還提供一種電腦設備,其至少包括儲存器、處理器及儲存在儲存器上並可在處理器上運行的電腦程式,其中,處理器執行所述程式時實現前述的資料樣本標籤處理方法資料模型訓練方法。該方法至少包括:   獲得不確定標籤樣本集和已確定標籤樣本集;利用以下步驟進行迭代處理,直到學習標籤的準確率達到預設的要求:   對當前的不確定標籤樣本集和已確定標籤樣本集進行合併,利用合併後的樣本訓練得到預測模型;   將不確定標籤樣本集中的不確定標籤樣本輸入預測模型,將模型輸出的預測值確定為不確定標籤樣本的學習標籤;   根據當前的不確定標籤樣本集,獲得帶有學習標籤的抽樣子集,對抽樣子集的學習標籤進行校驗以獲得學習標籤的準確率,如果學習標籤的準確率未達到預設的要求,則將標籤校驗結果確定為抽樣子集的標註結果,並將抽樣子集從不確定標籤樣本集移至已確定標籤樣本集;   迭代結束後,將不確定標籤樣本當前的學習標籤確定為標註結果、或者將當前的預測模型確定為適用於所述不確定標籤樣本集的預測模型。   圖6示出了本說明書實施例所提供的一種更為具體的計算設備硬體結構示意圖,該設備可以包括:處理器1010、儲存器1020、輸入/輸出介面1030、通信介面1040和匯流排1050。其中處理器1010、儲存器1020、輸入/輸出介面1030和通信介面1040通過匯流排1050實現彼此之間在設備內部的通信連接。   處理器1010可以採用通用的CPU(Central Processing Unit,中央處理器)、微處理器、應用特定積體電路(Application Specific Integrated Circuit,ASIC)、或者一個或多個積體電路等方式實現,用於執行相關程式,以實現本說明書實施例所提供的技術方案。   儲存器1020可以採用ROM(Read Only Memory,唯讀記憶體)、RAM(Random Access Memory,隨機存取記憶體)、靜態儲存設備,動態儲存設備等形式實現。儲存器1020可以儲存操作系統和其他應用程式,在通過軟體或者韌體來實現本說明書實施例所提供的技術方案時,相關的程式碼保存在儲存器1020中,並由處理器1010來呼叫執行。   輸入/輸出介面1030用於連接輸入/輸出模組,以實現資訊輸入及輸出。輸入輸出/模組可以作為組件配置在設備中(圖中未示出),也可以外接於設備以提供相應功能。其中輸入設備可以包括鍵盤、滑鼠、觸控螢幕、麥克風、各類感測器等,輸出設備可以包括顯示器、揚聲器、振動器、指示燈等。   通信介面1040用於連接通信模組(圖中未示出),以實現本設備與其他設備的通信互動。其中通信模組可以通過有線方式(例如USB、纜線等)實現通信,也可以通過無線方式(例如移動網路、WIFI、藍牙等)實現通信。   匯流排1050包括一通路,在設備的各個組件(例如處理器1010、儲存器1020、輸入/輸出介面1030和通信介面1040)之間傳輸資訊。   需要說明的是,儘管上述設備僅示出了處理器1010、儲存器1020、輸入/輸出介面1030、通信介面1040以及匯流排1050,但是在具體實施過程中,該設備還可以包括實現正常運行所必需的其他組件。此外,本領域的技術人員可以理解的是,上述設備中也可以僅包含實現本說明書實施例方案所必需的組件,而不必包含圖中所示的全部組件。   本說明書實施例還提供一種電腦可讀儲存媒體,其上儲存有電腦程式,該程式被處理器執行時實現前述的資料樣本標籤處理方法資料模型訓練方法。該方法至少包括:   獲得不確定標籤樣本集和已確定標籤樣本集;利用以下步驟進行迭代處理,直到學習標籤的準確率達到預設的要求:   對當前的不確定標籤樣本集和已確定標籤樣本集進行合併,利用合併後的樣本訓練得到預測模型;   將不確定標籤樣本集中的不確定標籤樣本輸入預測模型,將模型輸出的預測值確定為不確定標籤樣本的學習標籤;   根據當前的不確定標籤樣本集,獲得帶有學習標籤的抽樣子集,對抽樣子集的學習標籤進行校驗以獲得學習標籤的準確率,如果學習標籤的準確率未達到預設的要求,則將標籤校驗結果確定為抽樣子集的標註結果,並將抽樣子集從不確定標籤樣本集移至已確定標籤樣本集;   迭代結束後,將不確定標籤樣本當前的學習標籤確定為標註結果、或者將當前的預測模型確定為適用於所述不確定標籤樣本集的預測模型。   電腦可讀媒體包括永久性和非永久性、可移動和非可移動媒體可以由任何方法或技術來實現資訊儲存。資訊可以是電腦可讀指令、資料結構、程式的模組或其他資料。電腦的儲存媒體的例子包括,但不限於相變記憶體(PRAM)、靜態隨機存取記憶體(SRAM)、動態隨機存取記憶體(DRAM)、其他類型的隨機存取記憶體(RAM)、唯讀記憶體(ROM)、電可抹除可編程唯讀記憶體(EEPROM)、快閃記憶體或其他記憶體技術、唯讀光碟唯讀記憶體(CD-ROM)、數位多功能光碟(DVD)或其他光學儲存、磁盒式磁帶,磁帶磁碟儲存或其他磁性儲存設備或任何其他非傳輸媒體,可用於儲存可以被計算設備存取的資訊。按照本文中的界定,電腦可讀媒體不包括暫態媒體(transitory media),如調變的資料信號和載波。   通過以上的實施方式的描述可知,本領域的技術人員可以清楚地瞭解到本說明書實施例可借助軟體加必需的通用硬體平臺的方式來實現。基於這樣的理解,本說明書實施例的技術方案本質上或者說對現有技術做出貢獻的部分可以以軟體產品的形式體現出來,該電腦軟體產品可以儲存在儲存媒體中,如ROM/RAM、磁碟、光碟等,包括若干指令用以使得一台電腦設備(可以是個人電腦,伺服器,或者網路設備等)執行本說明書實施例各個實施例或者實施例的某些部分所述的方法。   上述實施例闡明的系統、裝置、模組或單元,具體可以由電腦晶片或實體實現,或者由具有某種功能的產品來實現。一種典型的實現設備為電腦,電腦的具體形式可以是個人電腦、膝上型電腦、蜂巢式電話、相機電話、智慧型電話、個人數位助理、媒體播放器、導航設備、電子郵件收發設備、遊戲主機、平板電腦、可穿戴設備或者這些設備中的任意幾種設備的組合。   本說明書中的各個實施例均採用漸進的方式描述,各個實施例之間相同相似的部分互相參見即可,每個實施例重點說明的都是與其他實施例的不同之處。尤其,對於裝置實施例而言,由於其基本相似於方法實施例,所以描述得比較簡單,相關之處參見方法實施例的部分說明即可。以上所描述的裝置實施例僅僅是示意性的,其中所述作為分離部件說明的模組可以是或者也可以不是物理上分開的,在實施本說明書實施例方案時可以把各模組的功能在同一個或多個軟體和/或硬體中實現。也可以根據實際的需要選擇其中的部分或者全部模組來實現本實施例方案的目的。本領域普通技術人員在不付出創造性勞動的情況下,即可以理解並實施。   以上所述僅是本說明書實施例的具體實施方式,應當指出,對於本技術領域的普通技術人員來說,在不脫離本說明書實施例原理的前提下,還可以做出若干改進和潤飾,這些改進和潤飾也應視為本說明書實施例的保護範圍。
S101‧‧‧步驟
S102‧‧‧步驟
S103‧‧‧步驟
S104‧‧‧步驟
S105‧‧‧步驟
S106‧‧‧步驟
S107‧‧‧步驟
110‧‧‧輸入模組
120‧‧‧學習模組
130‧‧‧校驗模組
140‧‧‧輸出模組
1010‧‧‧處理器
1020‧‧‧儲存器
1030‧‧‧輸入/輸出介面
1040‧‧‧通信介面
為了更清楚地說明本說明書實施例或現有技術中的技術方案,下面將對實施例或現有技術描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本說明書實施例中記載的一些實施例,對於本領域普通技術人員來講,還可以根據這些附圖獲得其他的附圖。   圖1是本說明書實施例的資料樣本標籤處理方法的流程示意圖;   圖2是本說明書實施例的整體設計架構示意圖;   圖3是本說明書實施例的不確定標籤樣本生成示意圖;   圖4是本說明書實施例的資料模型訓練方法的流程示意圖;   圖5是本說明書實施例的標籤處理裝置及訓練裝置的結構示意圖;以及   圖6是用於配置本說明書實施例裝置的一種設備的結構示意圖。

Claims (17)

  1. 一種資料樣本標籤處理方法,該方法包括:   獲得不確定標籤樣本集和已確定標籤樣本集;利用以下步驟進行迭代處理,直到學習標籤的準確率達到預設的要求:   對當前的不確定標籤樣本集和已確定標籤樣本集進行合併,利用合併後的樣本訓練得到預測模型;   將不確定標籤樣本集中的不確定標籤樣本輸入預測模型,將模型輸出的預測值確定為不確定標籤樣本的學習標籤;   根據當前的不確定標籤樣本集,獲得帶有學習標籤的抽樣子集,對抽樣子集的學習標籤進行校驗以獲得學習標籤的準確率,如果學習標籤的準確率未達到預設的要求,則將標籤校驗結果確定為抽樣子集的標註結果,並將抽樣子集從不確定標籤樣本集移至已確定標籤樣本集;以及   迭代結束後,將不確定標籤樣本當前的學習標籤確定為標註結果。
  2. 根據請求項1所述的方法,所述不確定標籤樣本集中的樣本均為有標籤樣本;所述利用合併後的樣本訓練得到預測模型包括:   利用有監督學習演算法對合併後的樣本進行訓練,得到預測模型。
  3. 根據請求項1所述的方法,所述不確定標籤樣本集中的樣本均為無標籤樣本、或僅部分樣本帶有標籤;所述利用合併後的樣本訓練得到預測模型包括:   利用半監督學習演算法對合併後的樣本進行訓練,得到預測模型。
  4. 根據請求項1所述的方法,所述獲得不確定標籤樣本集,包括:   在初始獲得的待處理樣本集中樣本數量未達到預設需求的情況下,將該待處理樣本集輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集;以及   將待處理樣本集與生成樣本集合併,得到不確定標籤樣本集。
  5. 根據請求項4所述的方法,所述將不確定標籤樣本集中的不確定標籤樣本輸入所述預測模型,包括:   將不確定標籤樣本集中,屬於待處理樣本集的部分輸入所述預測模型。
  6. 根據請求項4所述的方法,若所述待處理樣本集中的樣本均為有標籤樣本,則所述將該待處理樣本集輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集,包括:   將該待處理樣本集的特徵部分和標籤部分輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集,所述生成樣本集中的樣本均為有標籤樣本;   或者   將該待處理樣本集的特徵部分輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集,所述生成樣本集中的樣本均為無標籤樣本。
  7. 根據請求項4所述的方法,若所述待處理樣本集中的樣本均中的樣本均為無標籤樣本、或僅部分樣本帶有標籤,則所述將該待處理樣本集輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集,包括:   將該待處理樣本集的特徵部分輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集,所述生成樣本集中的樣本均為無標籤樣本。
  8. 一種資料模型訓練方法,該方法包括:   獲得不確定標籤樣本集和已確定標籤樣本集;利用以下步驟進行迭代處理,直到學習標籤的準確率達到預設的要求:   對當前的不確定標籤樣本集和已確定標籤樣本集進行合併,利用合併後的樣本訓練得到預測模型;   將所述不確定標籤樣本集中的不確定標籤樣本輸入所述預測模型,將模型輸出的預測值確定為不確定標籤樣本的學習標籤;   對帶有學習標籤的不確定標籤樣本集進行抽樣得到抽樣子集,對抽樣子集的學習標籤進行校驗以獲得學習標籤的準確率,如果學習標籤的準確率未達到預設的要求,則將標籤校驗結果確定為抽樣子集的標註結果,並將抽樣子集從不確定標籤樣本集移動至已確定標籤樣本集;以及   迭代結束後,將當前的預測模型確定為適用於所述不確定標籤樣本集的預測模型。
  9. 一種資料樣本標籤處理裝置,該裝置包括:   輸入模組,用於獲得不確定標籤樣本集和已確定標籤樣本集;   學習模組,用於對當前的不確定標籤樣本集和已確定標籤樣本集進行合併,利用合併後的樣本訓練得到預測模型;將不確定標籤樣本集中的不確定標籤樣本輸入預測模型,將模型輸出的預測值確定為不確定標籤樣本的學習標籤;   校驗模組,用於根據當前的不確定標籤樣本集,獲得帶有學習標籤的抽樣子集,對抽樣子集的學習標籤進行校驗以獲得學習標籤的準確率,如果學習標籤的準確率未達到預設的要求,則將標籤校驗結果確定為抽樣子集的標註結果,並將抽樣子集從不確定標籤樣本集移至已確定標籤樣本集;   所述學習模組和所述校驗模組相互配合實現迭代處理,直到學習標籤的準確率達到預設的要求;以及   輸出模組,用於在迭代結束後,將不確定標籤樣本當前的學習標籤確定為標註結果。
  10. 根據請求項9所述的裝置,所述不確定標籤樣本集中的樣本均為有標籤樣本;所述學習模組具體用於:   利用有監督學習演算法對合併後的樣本進行訓練,得到預測模型。
  11. 根據請求項9所述的裝置,所述不確定標籤樣本集中的樣本均為無標籤樣本、或僅部分樣本帶有標籤;所述學習模組具體用於:   利用半監督學習演算法對合併後的樣本進行訓練,得到預測模型。
  12. 根據請求項9所述的裝置,所述輸入模組包括:   生成子模組,用於在初始獲得的待處理樣本集中樣本數量未達到預設需求的情況下,將該待處理樣本集輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集;以及   合併子模組,用於將待處理樣本集與生成樣本集合併,得到不確定標籤樣本集。
  13. 根據請求項12所述的裝置,所述學習模組具體用於:   將不確定標籤樣本集中,屬於待處理樣本集的部分輸入所述預測模型。
  14. 根據請求項12所述的裝置,若所述待處理樣本集中的樣本均為有標籤樣本,則所述生成子模組具體用於:   將該待處理樣本集的特徵部分和標籤部分輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集,所述生成樣本集中的樣本均為有標籤樣本;   或者   將該待處理樣本集的特徵部分輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集,所述生成樣本集中的樣本均為無標籤樣本。
  15. 根據請求項12所述的裝置,若所述待處理樣本集中的樣本均中的樣本均為無標籤樣本、或僅部分樣本帶有標籤,則生成子模組具體用於:   將該待處理樣本集的特徵部分輸入生成式對抗網路,得到與待處理樣本集同分佈的生成樣本集,所述生成樣本集中的樣本均為無標籤樣本。
  16. 一種資料模型訓練裝置 ,該裝置包括:   輸入模組,用於獲得不確定標籤樣本集和已確定標籤樣本集;   學習模組,用於對當前的不確定標籤樣本集和已確定標籤樣本集進行合併,利用合併後的樣本訓練得到預測模型;將不確定標籤樣本集中的不確定標籤樣本輸入預測模型,將模型輸出的預測值確定為不確定標籤樣本的學習標籤;   校驗模組,用於根據當前的不確定標籤樣本集,獲得帶有學習標籤的抽樣子集,對抽樣子集的學習標籤進行校驗以獲得學習標籤的準確率,如果學習標籤的準確率未達到預設的要求,則將標籤校驗結果確定為抽樣子集的標註結果,並將抽樣子集從不確定標籤樣本集移至已確定標籤樣本集;   所述學習模組和所述校驗模組相互配合實現迭代處理,直到學習標籤的準確率達到預設的要求;以及   輸出模組,用於在迭代結束後,將當前的預測模型確定為適用於所述不確定標籤樣本集的預測模型。
  17. 一種電腦設備,包括儲存器、處理器及儲存在儲存器上並可在處理器上運行的電腦程式,其中,所述處理器執行所述程式時實現如請求項1至8中任一項所述的方法。
TW107132422A 2017-11-20 2018-09-14 一種資料樣本標籤處理方法、裝置及電腦設備 TWI694341B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
??201711160012.0 2017-11-20
CN201711160012.0A CN108021931A (zh) 2017-11-20 2017-11-20 一种数据样本标签处理方法及装置
CN201711160012.0 2017-11-20

Publications (2)

Publication Number Publication Date
TW201923624A true TW201923624A (zh) 2019-06-16
TWI694341B TWI694341B (zh) 2020-05-21

Family

ID=62080727

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107132422A TWI694341B (zh) 2017-11-20 2018-09-14 一種資料樣本標籤處理方法、裝置及電腦設備

Country Status (6)

Country Link
US (1) US11741392B2 (zh)
EP (1) EP3678058A4 (zh)
CN (1) CN108021931A (zh)
SG (1) SG11202002326RA (zh)
TW (1) TWI694341B (zh)
WO (1) WO2019095782A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110825980A (zh) * 2019-11-05 2020-02-21 重庆邮电大学 一种基于对抗生成网络的微博话题推送方法

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108021931A (zh) 2017-11-20 2018-05-11 阿里巴巴集团控股有限公司 一种数据样本标签处理方法及装置
CN108959431B (zh) * 2018-06-11 2022-07-05 中国科学院上海高等研究院 标签自动生成方法、系统、计算机可读存储介质及设备
CN110619535B (zh) * 2018-06-19 2023-07-14 华为技术有限公司 一种数据处理方法及其装置
CN108959474B (zh) * 2018-06-20 2021-12-28 上海交通大学 实体关系提取方法
CN108897829B (zh) * 2018-06-22 2020-08-04 广州多益网络股份有限公司 数据标签的修正方法、装置和存储介质
CN109359793B (zh) * 2018-08-03 2020-11-17 创新先进技术有限公司 一种针对新场景的预测模型训练方法及装置
CN109543713B (zh) * 2018-10-16 2021-03-26 北京奇艺世纪科技有限公司 训练集的修正方法及装置
CN109492695B (zh) * 2018-11-08 2021-07-23 北京字节跳动网络技术有限公司 数据建模的样本处理方法、装置、电子设备及可读介质
CN110008973B (zh) * 2018-11-23 2023-05-02 创新先进技术有限公司 一种模型训练方法、基于模型确定目标用户的方法及装置
CN109740738B (zh) * 2018-12-29 2022-12-16 腾讯科技(深圳)有限公司 一种神经网络模型训练方法、装置、设备和介质
CN109727275B (zh) * 2018-12-29 2022-04-12 北京沃东天骏信息技术有限公司 目标检测方法、装置、系统和计算机可读存储介质
CN111476256A (zh) * 2019-01-24 2020-07-31 北京京东尚科信息技术有限公司 基于半监督学习的模型训练方法、装置及电子设备
WO2020183807A1 (ja) * 2019-03-14 2020-09-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、および、情報処理システム
CN111914866A (zh) * 2019-05-10 2020-11-10 北京京东尚科信息技术有限公司 对抗图像检测模型的训练方法、装置和存储介质
CN111932287B (zh) * 2019-05-13 2022-05-17 阿里巴巴集团控股有限公司 数据合作处理方法、装置、电子设备及计算机存储介质
CN113743535B (zh) * 2019-05-21 2024-05-24 北京市商汤科技开发有限公司 神经网络训练方法及装置以及图像处理方法及装置
CN110245302B (zh) * 2019-05-24 2023-08-08 创新先进技术有限公司 用于识别欺诈案件的策略生成方法及装置和电子设备
CN110263824B (zh) * 2019-05-29 2023-09-05 创新先进技术有限公司 模型的训练方法、装置、计算设备及计算机可读存储介质
CN110263934B (zh) * 2019-05-31 2021-08-06 中国信息通信研究院 一种人工智能数据标注方法和装置
CN110263939A (zh) * 2019-06-24 2019-09-20 腾讯科技(深圳)有限公司 一种表示学习模型的评估方法、装置、设备及介质
CN110399804A (zh) * 2019-07-01 2019-11-01 浙江师范大学 一种基于深度学习的食品检测识别方法
US11663655B2 (en) * 2019-07-03 2023-05-30 Capital One Services, Llc Augmenting online transaction statements using e-commerce receipts
CN114467146A (zh) * 2019-09-26 2022-05-10 株式会社润医 用于对部署机构中的人工智能模型进行专业化的训练方法以及用于对人工智能模型进行训练的装置
CN112861892B (zh) * 2019-11-27 2023-09-01 杭州海康威视数字技术股份有限公司 图片中目标的属性的确定方法和装置
CN111143577B (zh) 2019-12-27 2023-06-16 北京百度网讯科技有限公司 数据标注方法、装置和系统
CN111143517B (zh) * 2019-12-30 2023-09-05 浙江阿尔法人力资源有限公司 人选标签预测方法、装置、设备和存储介质
CN111243620B (zh) * 2020-01-07 2022-07-19 腾讯科技(深圳)有限公司 语音分离模型训练方法、装置、存储介质和计算机设备
CN111402865B (zh) * 2020-03-20 2023-08-08 北京达佳互联信息技术有限公司 语音识别训练数据的生成方法、语音识别模型的训练方法
CN111626047A (zh) * 2020-04-23 2020-09-04 平安科技(深圳)有限公司 智能化文本纠错方法、装置、电子设备及可读存储介质
CN111839495B (zh) * 2020-07-30 2023-04-07 深圳前海微众银行股份有限公司 检测方法、设备和存储介质
CN111915020B (zh) * 2020-08-12 2024-02-23 杭州海康威视数字技术股份有限公司 检测模型的更新方法、装置及存储介质
CN112183577A (zh) * 2020-08-31 2021-01-05 华为技术有限公司 一种半监督学习模型的训练方法、图像处理方法及设备
CN112052900B (zh) * 2020-09-04 2024-05-24 京东科技控股股份有限公司 机器学习样本权重调整方法和装置、存储介质
CN112396513B (zh) * 2020-11-27 2024-02-20 中国银联股份有限公司 一种数据处理的方法及装置
CN112596024B (zh) * 2020-12-04 2021-10-08 华中科技大学 一种基于环境背景无线射频信号的运动识别方法
CN112633432A (zh) * 2020-12-31 2021-04-09 浙江优学智能科技有限公司 一种基于深度学习的汉字书写质量评价方法
CN112800111B (zh) * 2021-01-26 2022-08-02 重庆邮电大学 一种基于训练数据挖掘的位置预测方法
EP4196911A4 (en) * 2021-03-17 2023-08-30 Huawei Cloud Computing Technologies Co., Ltd. SYSTEM AND METHODS FOR UNSUPERVISED COMMON MULTI-MODEL INCLUSION
US20220318672A1 (en) * 2021-04-01 2022-10-06 Samsung Display Co., Ltd. Systems and methods for identifying manufacturing defects
CN113205163B (zh) * 2021-07-07 2021-11-19 数据堂(北京)科技股份有限公司 数据标注方法及装置
CN113627532B (zh) * 2021-08-11 2023-11-28 平安国际智慧城市科技股份有限公司 食品安全检测方法、装置、设备及存储介质
TWI776638B (zh) * 2021-08-17 2022-09-01 臺中榮民總醫院 以人工智慧技術輔助多疾病決策與即時資訊回饋的醫療照護系統
TWI780881B (zh) * 2021-08-27 2022-10-11 緯創資通股份有限公司 瑕疵檢測模型的建立方法及電子裝置
CN113837394B (zh) * 2021-09-03 2024-07-05 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 多特征视图数据标签预测方法、系统与可读存储介质
CN114398492B (zh) * 2021-12-24 2022-08-30 森纵艾数(北京)科技有限公司 一种在数字领域的知识图谱构建方法、终端及介质
CN114692724B (zh) * 2022-03-03 2023-03-28 支付宝(杭州)信息技术有限公司 数据分类模型的训练方法、数据分类方法和装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5956419A (en) 1995-04-28 1999-09-21 Xerox Corporation Unsupervised training of character templates using unsegmented samples
US6937994B1 (en) * 2000-02-24 2005-08-30 International Business Machines Corporation System and method for efficiently generating models for targeting products and promotions using classification method by choosing points to be labeled
US7958096B2 (en) 2000-09-20 2011-06-07 Ndsu-Research Foundation System and method for organizing, compressing and structuring data for data mining readiness
US7366705B2 (en) 2004-04-15 2008-04-29 Microsoft Corporation Clustering based text classification
US7844567B2 (en) 2007-08-13 2010-11-30 Yahoo! Inc. System and method for selecting a training sample from a sample test based on data sample proximity
US7958068B2 (en) 2007-12-12 2011-06-07 International Business Machines Corporation Method and apparatus for model-shared subspace boosting for multi-label classification
JP5159368B2 (ja) 2008-02-29 2013-03-06 インターナショナル・ビジネス・マシーンズ・コーポレーション 変化分析システム、方法及びプログラム
US20100076923A1 (en) 2008-09-25 2010-03-25 Microsoft Corporation Online multi-label active annotation of data files
US8392126B2 (en) * 2008-10-03 2013-03-05 Illumina, Inc. Method and system for determining the accuracy of DNA base identifications
WO2010075408A1 (en) 2008-12-22 2010-07-01 The Trustees Of Columbia University In The City Of New York System and method for annotating and searching media
US8788498B2 (en) 2009-06-15 2014-07-22 Microsoft Corporation Labeling data samples using objective questions
US20130097103A1 (en) 2011-10-14 2013-04-18 International Business Machines Corporation Techniques for Generating Balanced and Class-Independent Training Data From Unlabeled Data Set
US20140201208A1 (en) * 2013-01-15 2014-07-17 Corporation Symantec Classifying Samples Using Clustering
WO2014143774A1 (en) * 2013-03-15 2014-09-18 National Cheng Kung University System and method for rating and selecting models
US20150095017A1 (en) 2013-09-27 2015-04-02 Google Inc. System and method for learning word embeddings using neural language models
US10321870B2 (en) * 2014-05-01 2019-06-18 Ramot At Tel-Aviv University Ltd. Method and system for behavioral monitoring
US9953425B2 (en) * 2014-07-30 2018-04-24 Adobe Systems Incorporated Learning image categorization using related attributes
CN104166706B (zh) * 2014-08-08 2017-11-03 苏州大学 基于代价敏感主动学习的多标签分类器构建方法
GB201517462D0 (en) 2015-10-02 2015-11-18 Tractable Ltd Semi-automatic labelling of datasets
CN107045503B (zh) * 2016-02-05 2019-03-05 华为技术有限公司 一种特征集确定的方法及装置
US10275690B2 (en) 2016-04-21 2019-04-30 Sas Institute Inc. Machine learning predictive labeling system
US10846308B2 (en) 2016-07-27 2020-11-24 Anomalee Inc. Prioritized detection and classification of clusters of anomalous samples on high-dimensional continuous and mixed discrete/continuous feature spaces
US20180053097A1 (en) 2016-08-16 2018-02-22 Yahoo Holdings, Inc. Method and system for multi-label prediction
CN107016406A (zh) * 2017-02-24 2017-08-04 中国科学院合肥物质科学研究院 基于生成式对抗网络的病虫害图像生成方法
CN107292330B (zh) * 2017-05-02 2021-08-06 南京航空航天大学 一种基于监督学习和半监督学习双重信息的迭代式标签噪声识别算法
CN107220600B (zh) 2017-05-17 2019-09-10 清华大学深圳研究生院 一种基于深度学习的图片生成方法及生成对抗网络
US11003995B2 (en) * 2017-05-19 2021-05-11 Huawei Technologies Co., Ltd. Semi-supervised regression with generative adversarial networks
CN107633218B (zh) * 2017-09-08 2021-06-08 百度在线网络技术(北京)有限公司 用于生成图像的方法和装置
CN108021931A (zh) * 2017-11-20 2018-05-11 阿里巴巴集团控股有限公司 一种数据样本标签处理方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110825980A (zh) * 2019-11-05 2020-02-21 重庆邮电大学 一种基于对抗生成网络的微博话题推送方法
CN110825980B (zh) * 2019-11-05 2022-07-01 重庆邮电大学 一种基于对抗生成网络的微博话题推送方法

Also Published As

Publication number Publication date
US20200151578A1 (en) 2020-05-14
SG11202002326RA (en) 2020-04-29
EP3678058A1 (en) 2020-07-08
EP3678058A4 (en) 2020-12-02
WO2019095782A1 (zh) 2019-05-23
CN108021931A (zh) 2018-05-11
TWI694341B (zh) 2020-05-21
US11741392B2 (en) 2023-08-29

Similar Documents

Publication Publication Date Title
TWI694341B (zh) 一種資料樣本標籤處理方法、裝置及電腦設備
CN109214436A (zh) 一种针对目标场景的预测模型训练方法及装置
CN110278175B (zh) 图结构模型训练、垃圾账户识别方法、装置以及设备
US12014282B2 (en) Data processing method and apparatus, electronic device, and storage medium
JP6697584B2 (ja) データリスクを識別する方法及び装置
TW202008237A (zh) 針對新場景的預測模型訓練方法及裝置
US11907675B2 (en) Generating training datasets for training neural networks
TW201928709A (zh) 對模型預測值進行融合的方法、裝置和設備
CN110119860B (zh) 一种垃圾账号检测方法、装置以及设备
WO2019072128A1 (zh) 对象识别方法及其系统
CN110009154B (zh) 一种退款预测方法、装置、终端设备及存储介质
US20200125695A1 (en) Detecting hotspots in physical design layout patterns utilizing hotspot detection model with data augmentation
CN104103011B (zh) 一种基于纳税人利益关联网络的可疑纳税人识别方法
CN108550046A (zh) 一种资源和营销推荐方法、装置及电子设备
CN111369258A (zh) 实体对象类型的预测方法、装置及设备
CN109993544A (zh) 数据处理方法、系统、计算机系统及计算机可读存储介质
CN113360711A (zh) 视频理解任务的模型训练和执行方法、装置、设备及介质
Roy Choudhury et al. Enhancing profit from stock transactions using neural networks
WO2022017082A1 (zh) 用于检测虚假交易订单的方法和装置
US20220253426A1 (en) Explaining outliers in time series and evaluating anomaly detection methods
CN116542673B (zh) 应用于机器学习的欺诈行为识别方法及系统
US10296527B2 (en) Determining an object referenced within informal online communications
CN112001748A (zh) 一种基于标签传播的数据扩展方法与设备
CN115329972B (zh) 量子计算机性能确定方法及装置、电子设备和介质
US20170004511A1 (en) Identifying Drivers for a Metric-of-Interest