JP2024507602A - Data processing methods and methods for training predictive models - Google Patents

Data processing methods and methods for training predictive models Download PDF

Info

Publication number
JP2024507602A
JP2024507602A JP2022581432A JP2022581432A JP2024507602A JP 2024507602 A JP2024507602 A JP 2024507602A JP 2022581432 A JP2022581432 A JP 2022581432A JP 2022581432 A JP2022581432 A JP 2022581432A JP 2024507602 A JP2024507602 A JP 2024507602A
Authority
JP
Japan
Prior art keywords
sample
prediction
processed
target
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022581432A
Other languages
Japanese (ja)
Other versions
JP7535139B2 (en
Inventor
ヤン,ハオ
グオ,ユー
フー,シン
リウ,ウェンティン
ユー,ルイチェ
チャオ,ジーハン
スー,ドン
チェン,ユーハン
ペン,チーミン
チン,ショウケ
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
Publication of JP2024507602A publication Critical patent/JP2024507602A/en
Application granted granted Critical
Publication of JP7535139B2 publication Critical patent/JP7535139B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本開示は、データ処理方法及び予測モデルをトレーニングするための方法を提供し、コンピュータ技術分野に関し、特に人工知能技術に関する。実現案として、被処理対象を決定することと、前記被処理対象の分類属性に基づいて前記被処理対象が所属する対象カテゴリを決定することと、前記対象カテゴリに基づいて前記被処理対象に用いられる予測モデルを決定することと、前記予測モデルを利用して前記被処理対象の少なくとも一つの予測特徴を処理することにより、前記被処理対象の予測結果を取得し、ここで、前記予測結果と前記分類属性は同種の変数であることと、を含む。【選択図】図2TECHNICAL FIELD The present disclosure provides a data processing method and a method for training a predictive model, and relates to the field of computer technology, and in particular to artificial intelligence technology. As an implementation plan, a target to be processed is determined, a target category to which the target to be processed belongs is determined based on a classification attribute of the target to be processed, and a target category for the target to be processed is determined based on the target category. obtaining a prediction result of the target object by determining a prediction model that is predicted by the target object, and processing at least one prediction feature of the target object using the prediction model; The classification attribute includes variables of the same type. [Selection diagram] Figure 2

Description

本願は、2022年1月25日に提出された中国特許出願202210088356.Xの優先権を主張するものであり、その内容の全ては参照によって本願に組み込まれる。
本開示は、コンピュータ技術分野に関し、特に人工知能技術に関し、具体的には、データ処理方法及び予測モデルをトレーニングするための方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム製品に関する。
This application is based on Chinese Patent Application No. 202210088356 filed on January 25, 2022. X, the entire contents of which are incorporated herein by reference.
TECHNICAL FIELD The present disclosure relates to the field of computer technology, and in particular to artificial intelligence technology, and in particular to data processing methods and methods, apparatus, electronic equipment, computer-readable storage media, and computer program products for training predictive models.

人工知能は、コンピュータに人間のいくつかの思惟過程及び知能的行動(例えば、学習、推理、思考、計画など)を模擬させるように研究する科目であり、ハードウェア面の技術もあれば、ソフトウェア面の技術もある。人工知能のハードウェア技術は、一般的にセンサ、人工知能専用チップ、クラウドコンピューティング、分散ストレージ、ビッグデータ処理などの技術を含み、人工知能ソフトウェア技術は、主にコンピュータ視覚技術、音声認識技術、自然言語処理技術及び機械学習/深層学習、ビッグデータ処理技術、ナレッジグラフ技術などのいくつかの大きな方向を含む。 Artificial intelligence is a subject that studies how to make computers imitate some human thought processes and intelligent behaviors (e.g., learning, reasoning, thinking, planning, etc.), and it involves both hardware technology and software technology. There is also surface technology. Artificial intelligence hardware technology generally includes sensors, artificial intelligence dedicated chips, cloud computing, distributed storage, big data processing and other technologies, and artificial intelligence software technology mainly includes computer vision technology, voice recognition technology, It includes several major directions such as natural language processing technology and machine learning/deep learning, big data processing technology, and knowledge graph technology.

予測タスクは、様々な人工知能の応用シーンにおいては重要な役割を果たしている。例えば、動画推薦の場面において、ユーザが推薦される動画リソースを閲覧する時間を予測することは、動画推薦結果に対して重要な役割を有する。 Prediction tasks play an important role in various artificial intelligence applications. For example, in the video recommendation scene, predicting how long a user will spend viewing a recommended video resource plays an important role in determining the video recommendation result.

この部分で説明される方法は、必ずしも以前に想定される方法又は採用される方法ではない。特に断りのない限り、この部分に記載されているいずれの方法は、この部分に含まれるだけで従来技術であると考えられるべきではない。同様に、特に断りのない限り、この部分で言及されている課題は、従来の技術で承認されたものであると考えるべきではない。 The methods described in this part are not necessarily those previously envisaged or employed. Unless otherwise specified, any method described in this section should not be considered prior art by virtue of its inclusion in this section. Similarly, unless otherwise specified, the subject matter referred to in this section should not be considered to be an admission of prior art.

本開示は、データ処理方法及び予測モデルをトレーニングするための方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム製品を提供する。
本開示の一態様によれば、被処理対象を決定することと、前記被処理対象の分類属性に基づいて前記被処理対象が所属する対象カテゴリを決定することと、前記対象カテゴリに基づいて前記被処理対象に用いられる予測モデルを決定することと、前記予測モデルを利用して前記被処理対象の少なくとも一つの予測特徴を処理することにより、前記被処理対象の予測結果を取得し、前記予測結果と前記分類属性は同種の変数であることと、を含むデータ処理方法を提供する。
The present disclosure provides data processing methods and methods, apparatus, electronic devices, computer readable storage media, and computer program products for training predictive models.
According to one aspect of the present disclosure, determining a target to be processed, determining a target category to which the target to be processed belongs based on a classification attribute of the target to be processed, and determining the target category to which the target to be processed belongs based on the target category. obtaining a prediction result of the target object by determining a prediction model to be used for the target object and processing at least one predictive feature of the target object using the prediction model; The present invention provides a data processing method including: the result and the classification attribute are variables of the same type.

本開示の別の態様によれば、複数のサンプル対象を含むサンプルセットを決定することと、前記サンプル対象の分類属性に基づいてサンプルセットにおける第1のサンプルサブセットと第2のサンプルサブセットを決定することと、第1のサンプルサブセットにおける第1のサンプル対象を利用して第1の予測モデルをトレーニングすることと、第2のサンプルサブセットにおける第2のサンプル対象を利用して第2の予測モデルをトレーニングすることと、を含み、ここで、前記第1の予測モデルと第2の予測モデルは、被処理対象の少なくとも一つの予測特徴を処理することにより、被処理対象の予測結果を取得するために用いられ、前記予測結果と前記分類属性は同種の変数である予測モデルをトレーニングするための方法を提供する。 According to another aspect of the disclosure, determining a sample set that includes a plurality of sample objects, and determining a first sample subset and a second sample subset in the sample set based on classification attributes of the sample objects. training a first predictive model using a first sample subject in the first sample subset; and training a second predictive model using a second sample subject in the second sample subset. training, wherein the first prediction model and the second prediction model are configured to obtain a prediction result of the processed object by processing at least one prediction feature of the processed object. provides a method for training a prediction model in which the prediction result and the classification attribute are homogeneous variables.

本開示の別の態様によれば、被処理対象を決定するように構成される被処理対象決定ユニットと、前記被処理対象の分類属性に基づいて前記被処理対象が所属する対象カテゴリを決定するように構成される対象カテゴリ決定ユニットと、前記対象カテゴリに基づいて前記被処理対象に用いられる予測モデルを決定するように構成される予測モデル決定ユニットと、前記予測モデルを利用して前記被処理対象の少なくとも一つの予測特徴を処理することにより、前記被処理対象の予測結果を取得するように構成される予測ユニットであって、前記予測結果と前記分類属性は同種の変数であるものと、を含むデータ処理装置を提供する。 According to another aspect of the present disclosure, a process target determination unit configured to determine a process target, and determining a target category to which the process target belongs based on a classification attribute of the process target. a prediction model determination unit configured to determine a prediction model to be used for the process target based on the target category; and a prediction model determination unit configured to determine a prediction model to be used for the process target based on the target category; A prediction unit configured to obtain a prediction result of the target to be processed by processing at least one prediction feature of the target, the prediction result and the classification attribute being the same type of variable; Provided is a data processing device including:

本開示の別の態様によれば、複数のサンプル対象を含むサンプルセットを決定するように構成されるサンプル決定ユニットと、前記サンプル対象の分類属性に基づいてサンプルセットにおける第1のサンプルサブセットと第2のサンプルサブセットを決定するように構成される分類ユニットと、第1のサンプルサブセットにおける第1のサンプル対象を利用して第1の予測モデルをトレーニングするように構成される第1の予測モデルトレーニングユニットと、第2のサンプルサブセットにおける第2のサンプル対象を利用して第2の予測モデルをトレーニングするように構成される第2の予測モデルトレーニングユニットと、を含み、ここで、前記第1の予測モデルと第2の予測モデルは、被処理対象の少なくとも一つの予測特徴を処理することにより、被処理対象の予測結果を取得するために用いられ、ここで、前記予測結果と前記分類属性は同種の変数である予測モデルをトレーニングするための装置を提供する。 According to another aspect of the disclosure, a sample determining unit configured to determine a sample set that includes a plurality of sample objects; and a sample determination unit configured to determine a sample set that includes a plurality of sample objects; a classification unit configured to determine a sample subset of 2; and a first predictive model training configured to utilize a first sample subject in the first sample subset to train a first predictive model. a second predictive model training unit configured to utilize a second sample subject in a second sample subset to train a second predictive model; The prediction model and the second prediction model are used to obtain a prediction result of the processed object by processing at least one prediction feature of the processed object, where the prediction result and the classification attribute are An apparatus for training a predictive model on homogeneous variables is provided.

本開示の別の態様によれば、少なくとも一つのプロセッサと、前記少なくとも一つのプロセッサに通信接続されたメモリとを含み、ここで、前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも一つのプロセッサによって実行されることにより、前記少なくとも一つのプロセッサに以上に記載の方法を実行させることができる電子機器を提供する。 According to another aspect of the disclosure, the invention includes at least one processor and a memory communicatively coupled to the at least one processor, wherein the memory stores instructions executable by the at least one processor. The instructions are stored and executed by the at least one processor to provide an electronic device capable of causing the at least one processor to perform the method described above.

本開示の別の態様によれば、コンピュータに以上に記載の方法を実行させるためのコンピュータ命令が記憶された非一時的コンピュータ可読記憶媒体を提供する。
本開示の別の態様によれば、プロセッサによって実行されると、以上に記載の方法を実現するコンピュータプログラムを含むコンピュータプログラム製品を提供する。
According to another aspect of the present disclosure, a non-transitory computer-readable storage medium having computer instructions stored thereon for causing a computer to perform the methods described above is provided.
According to another aspect of the present disclosure, a computer program product is provided that includes a computer program that, when executed by a processor, implements the method described above.

本開示の一つ又は複数の実施例によれば、単変数の予測問題に対し、予測対象の単変数と同種の変数である分類属性の値に基づいて該被処理対象が所属する対象カテゴリを決定し、該対象カテゴリに属する対象のためにレーニングされた予測モデルに基づいて予測結果を取得することができる。上記方法を利用し、異なる区間の変数予測のためにトレーニングされた予測モデルを利用して予測を行うことができ、これによって、異なるカテゴリにおける被処理対象の特性をより良く識別することができる。 According to one or more embodiments of the present disclosure, for a single variable prediction problem, the target category to which the processed target belongs is determined based on the value of a classification attribute that is the same type of variable as the single variable to be predicted. A prediction result can be obtained based on a prediction model trained for objects belonging to the object category. Using the above method, predictions can be made using prediction models trained for variable prediction in different intervals, thereby allowing better discrimination of the characteristics of the processed object in different categories.

理解すべきこととして、この部分に説明される内容は、本開示の実施例の要点又は重要な特徴を識別することを意図しておらず、本開示の保護範囲を限定するためのものではない。本開示の他の特徴は、以下の明細書によって容易に理解されるであろう。 It should be understood that the content described in this section is not intended to identify key points or important features of the embodiments of the present disclosure, and is not intended to limit the protection scope of the present disclosure. . Other features of the disclosure will be readily understood from the following specification.

図面は、実施例を例示的に示し、明細書の一部を構成し、明細書の文字による説明とともに、実施例の例示的な実施形態を説明するために用いられる。図示の実施例は例示的目的のみであり、特許請求の範囲を限定するものではない。全ての図面において、同一の符号は、類似しているが、必ずしも同じとは限らない要素を指す。
本開示の実施例による、本明細書で説明される様々な方法を実施することができる例示的なシステムを示す概略図である。 本開示の実施例によるデータ処理方法を示す例示的なフローチャートである。 本開示の実施例による予測モデルをトレーニングするための方法を示す例示的なフローチャートである。 本開示の実施例による損失関数によって算出された回帰損失を示す例示図である。 本開示の実施例による損失関数の勾配を示す例示図である。 本開示の実施例によるマルチタスクトレーニングフレームを示す例示図である。 本開示の実施例によるデータ処理装置を示す例示的なブロック図である。 本開示の実施例による予測モデルをトレーニングするための装置を示す例示的なブロック図である。 本開示の実施例を実現するために使用できる例示的な電子機器を示す構成ブロック図である。
The drawings illustratively illustrate embodiments, constitute a part of the specification, and, together with the written description, serve to explain example embodiments of the embodiments. The illustrated embodiments are for illustrative purposes only and are not intended to limit the scope of the claims. In all drawings, the same reference numerals refer to similar, but not necessarily identical, elements.
1 is a schematic diagram illustrating an example system that can implement various methods described herein, according to embodiments of the present disclosure. FIG. 3 is an exemplary flowchart illustrating a data processing method according to an embodiment of the present disclosure. 1 is an example flowchart illustrating a method for training a predictive model according to an embodiment of the present disclosure. FIG. 3 is an exemplary diagram showing regression loss calculated by a loss function according to an embodiment of the present disclosure. FIG. 3 is an exemplary diagram illustrating the slope of a loss function according to an embodiment of the present disclosure. FIG. 2 is an example diagram illustrating a multi-task training frame according to an embodiment of the present disclosure. 1 is an exemplary block diagram illustrating a data processing apparatus according to an embodiment of the present disclosure. FIG. 1 is an example block diagram illustrating an apparatus for training a predictive model according to an embodiment of the present disclosure. FIG. 1 is a configuration block diagram illustrating an example electronic device that can be used to implement embodiments of the present disclosure. FIG.

以下、図面に合わせて本開示の例示的な実施例を説明して、それに含まれる本開示の実施例における様々な詳細が理解を助けるためので、それらは単なる例示的なものと考えられるべきである。従って、当業者であれば、本開示の範囲及び精神から逸脱することなく、本明細書で説明された実施例に対して様々な変更及び修正を行うことができることを認識すべきである。同様に、明瞭と簡潔のために、以下の説明では公知の機能及び構造についての説明を省略している。 Hereinafter, exemplary embodiments of the present disclosure will be described in conjunction with the drawings, and various details included therein in the embodiments of the present disclosure will aid in understanding and should therefore be considered as merely illustrative. be. Accordingly, those skilled in the art should recognize that various changes and modifications can be made to the embodiments described herein without departing from the scope and spirit of the disclosure. Similarly, for the sake of clarity and brevity, the following description omits descriptions of well-known features and structures.

本願では、特に明記しない限り、様々な要素を説明するための「第1」、「第2」などの用語は、これらの要素の位置関係、タイミング関係、又は重要性関係を限定することを意図していない。このような用語は、一要素を別の要素から区別するためにのみ使用される。いくつかの例では、第一要素と第二要素は、要素の同じ例を指してもよく、場合によっては、コンテキストの説明に基づいて、異なる例を指してもよい。 In this application, unless otherwise specified, the terms "first," "second," etc. used to describe various elements are not intended to limit the relative position, timing, or importance of these elements. I haven't. These terms are only used to distinguish one element from another. In some examples, the first element and the second element may refer to the same instance of the element, or in some cases, may refer to different instances based on the description of the context.

本開示の様々な例の説明で使用される用語は、特定の例を説明することのみを目的としており、限定することを意図していない。コンテキストで別途に明確に示されていない限り、特に要素の数を限定しないなら、要素は一つであってもよいし、複数であってもよい。なお、本開示で使用される用語「及び/又は」は、リストされた項目のいずれか及び可能な全ての組み合わせをカバーする。 The terminology used in the description of various examples of this disclosure is for the purpose of describing particular examples only and is not intended to be limiting. Unless the context clearly indicates otherwise, there may be one or more elements, unless the number of elements is specifically limited. It should be noted that the term "and/or" as used in this disclosure covers any and all possible combinations of the listed items.

以下、図面を参照して本開示の実施例について詳細に説明する。
図1は、本開示の実施例による、本明細書に記載された様々な方法及び装置を、その中で実施することができる例示的なシステム100の概略図を示す。図1を参照すると、このシステム100は、一つ又は複数のクライアントデバイス101、102、103、104、105と106、サーバ120、及び一つ又は複数のクライアントデバイスをサーバ120に結合する一つ又は複数の通信ネットワーク110を含む。クライアントデバイス101、102、103、104、105と106は、一つ又は複数のアプリケーションを実行するように構成されることが可能である。
Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.
FIG. 1 depicts a schematic diagram of an example system 100 in which various methods and apparatus described herein may be implemented, according to embodiments of the present disclosure. Referring to FIG. 1, the system 100 includes one or more client devices 101, 102, 103, 104, 105 and 106, a server 120, and one or more client devices coupling the one or more client devices to the server 120. Includes multiple communication networks 110. Client devices 101, 102, 103, 104, 105 and 106 may be configured to run one or more applications.

本開示の実施例では、サーバ120は、本開示の実施例による方法の一つ又は複数のサービス又はソフトウェアアプリケーションを実行できるように動作する。
いくつかの実施例では、サーバ120は、非仮想環境及び仮想環境を含んでもよい他のサービス又はソフトウェアアプリケーションも提供することができる。いくつかの実施例では、これらのサービスは、webベースのサービス又はクラウドサービスとして提供することができ、例えば、ソフトウェアアズアサービス(SaaS)モデルでクライアントデバイス101、102、103、104、105及び/又は106のユーザに提供される。
In embodiments of the present disclosure, server 120 is operable to execute one or more services or software applications of methods according to embodiments of the present disclosure.
In some examples, server 120 may also provide other services or software applications that may include non-virtual and virtual environments. In some examples, these services may be provided as web-based services or cloud services, such as on client devices 101, 102, 103, 104, 105 and/or in a software-as-a-service (SaaS) model. 106 users.

図1に示す構成では、サーバ120は、サーバ120により実行される機能を実現する一つ又は複数のアセンブリを含んでもよい。これらのアセンブリは、一つ又は複数のプロセッサで実行できるソフトウェアアセンブリ、ハードウェアアセンブリ、又はそれらの組み合わせを含んでもよい。クライアントデバイス101、102、103、104、105及び/又は106を操作するユーザは、これらのアセンブリが提供するサービスを利用するために、一つ又は複数のクライアントアプリケーションを用いてサーバ120とやり取りをすることができる。様々な異なるシステム構成が可能であり、システム100とは異なってもよいことを理解されたい。したがって、図1は、本明細書に記載された様々な方法を実施するためのシステムの一例であり、制限することを意図していない。 In the configuration shown in FIG. 1, server 120 may include one or more assemblies that implement the functions performed by server 120. These assemblies may include software assemblies, hardware assemblies, or a combination thereof that can be executed on one or more processors. Users operating client devices 101, 102, 103, 104, 105, and/or 106 interact with server 120 using one or more client applications to take advantage of the services provided by these assemblies. be able to. It should be appreciated that a variety of different system configurations are possible and may differ from system 100. Accordingly, FIG. 1 is one example of a system for implementing the various methods described herein, and is not intended to be limiting.

ユーザは、クライアントデバイス101、102、103、104、105及び/又は106を使用することにより、ユーザ入力を取得してユーザに本開示の実施例による方法で得られた処理結果を提供することができる。クライアントデバイスは、クライアントデバイスのユーザがクライアントデバイスとやり取りをするインターフェースを提供することができる。クライアントデバイスは、このインターフェースを介してユーザに情報を出力することもできる。図1では6つのクライアントデバイスしか図示されていないが、当業者であれば理解できるように、本開示はいかなる数のクライアントデバイスもサポートできる。 A user may use client devices 101, 102, 103, 104, 105 and/or 106 to obtain user input and provide the user with processing results obtained by methods according to embodiments of the present disclosure. can. A client device can provide an interface through which a user of the client device interacts with the client device. The client device can also output information to the user via this interface. Although only six client devices are illustrated in FIG. 1, one skilled in the art will appreciate that the present disclosure can support any number of client devices.

クライアントデバイス101、102、103、104、105及び/又は106は、携帯型ハンドヘルドデバイス、汎用コンピュータ(例えば、パーソナルコンピュータやノートパソコン)、ワークステーションコンピュータ、ウェアラブルデバイス、スマートスクリーンデバイス、セルフサービス端末デバイス、サービスロボット、ゲームシステム、シンクライアント、各種のメッセージングデバイス、センサ、又はその他の検知デバイスなどの様々なタイプのコンピュータデバイスを含んでもよい。これらのコンピュータデバイスは、MICROSOFT Windows、APPLE iOS、類UNIX(登録商標)オペレーティングシステム、Linux(登録商標)又は類Linux(登録商標)オペレーティングシステム(例えば、GOOGLE Chrome OS)などの様々なタイプ及びバージョンのソフトウェアアプリケーションやオペレーティングシステムを実行したり、MICROSOFT Windows Mobile OS、iOS、Windows Phone、Androidなどの各種のモバイルオペレーティングシステムを含んだりすることができる。携帯用ハンドヘルドデバイスには、携帯電話、インテリジェントフォン、タブレット、パーソナルデジタルアシスタント(PDA)などを含んでもよい。ウェアラブルデバイスは、ヘッドマウント型ディスプレイ(例えば、スマートグラス)と他の装置を含んでもよい。ゲームシステムは、様々なハンドヘルド型のゲームデバイス、インターネット対応のゲームデバイスなどを含んでもよい。クライアントデバイスは、例えば、インターネットInternet関連アプリケーション、通信アプリケーション(例えば、電子メールアプリケーション)、ショートメッセージサービス(SMS)アプリケーション、様々なアプリケーションを実行でき、且つ様々な通信プロトコルを使用できる。 Client devices 101, 102, 103, 104, 105 and/or 106 may include portable handheld devices, general purpose computers (e.g., personal computers or laptops), workstation computers, wearable devices, smart screen devices, self-service terminal devices, It may include various types of computing devices, such as service robots, gaming systems, thin clients, various messaging devices, sensors, or other sensing devices. These computing devices may be of various types and versions, such as MICROSOFT Windows, APPLE iOS, similar UNIX operating systems, Linux or similar Linux operating systems (e.g., GOOGLE Chrome OS). It can run software applications and operating systems, and can include a variety of mobile operating systems, such as MICROSOFT Windows Mobile OS, iOS, Windows Phone, and Android. Portable handheld devices may include mobile phones, intelligent phones, tablets, personal digital assistants (PDAs), and the like. Wearable devices may include head-mounted displays (eg, smart glasses) and other devices. The gaming system may include a variety of handheld gaming devices, internet-enabled gaming devices, and the like. A client device can run various applications, such as Internet-related applications, communication applications (eg, email applications), short message service (SMS) applications, and use various communication protocols, for example.

ネットワーク110は、当業者に知られている任意のタイプのネットワークであってもよく、それは、データ通信をサポートするために、複数の利用可能なプロトコルのいずれか一つ(TCP/IP、SNA、IPXなどを含むがこれらに限定されない)を使用することができる。例として、一つ又は複数のネットワーク110は、ローカルエリアネットワーク(LAN)、イーサネットベースのネットワーク、トークンループ、ワイドエリアネットワーク(WAN)、インターネット、仮想ネットワーク、仮想プライベートネットワーク(VPN)、イントラネット、エクストラネット、公衆交換電話網(PSTN)、赤外線ネットワーク、無線ネットワーク(例えば、ブルートゥース(登録商標)、WIFI)、及び/又はこれらとその他のネットワークの任意の組み合わせであってもよい。 Network 110 may be any type of network known to those skilled in the art, which supports any one of multiple available protocols (TCP/IP, SNA, IPX, etc.) can be used. By way of example, one or more networks 110 may include a local area network (LAN), an Ethernet-based network, a token loop, a wide area network (WAN), the Internet, a virtual network, a virtual private network (VPN), an intranet, an extranet. , a public switched telephone network (PSTN), an infrared network, a wireless network (e.g., Bluetooth, WIFI), and/or any combination of these and other networks.

サーバ120は、一つ又は複数の汎用コンピュータ、専用サーバコンピュータ(例えば、PC(パーソナルコンピュータ)サーバ、UNIX(登録商標)サーバ、ミッドレンジサーバ)、ブレードサーバ、大型コンピュータ、サーバクラスタ、又はその他の適切な配置及び/又は組み合わせを含んでもよい。サーバ120は、仮想オペレーティングシステムを実行する一つ又は複数の仮想マシン、又は仮想化に関わる他のコンピューティングアーキテクチャ(例えば、サーバの仮想記憶装置を維持するために仮想化された論理記憶デバイスの一つ又は複数のフレキシブルプール)を含んでもよい。様々な実施例では、サーバ120は、以下に説明する機能を提供する一つ又は複数のサービス又はソフトウェアアプリケーションを実行することができる。 Server 120 may be one or more general purpose computers, dedicated server computers (e.g., PC servers, UNIX servers, midrange servers), blade servers, large scale computers, server clusters, or other suitable servers. may include other arrangements and/or combinations. Server 120 may include one or more virtual machines running a virtual operating system or other computing architecture that involves virtualization (e.g., a set of virtualized logical storage devices to maintain virtual storage for the server). (one or more flexible pools). In various embodiments, server 120 may execute one or more services or software applications that provide the functionality described below.

サーバ120における計算ユニットは、上記した任意のオペレーティングシステム及び任意の商用サーバオペレーティングシステムを含む一つ又は複数のオペレーティングシステムを実行することができる。サーバ120は、HTTPサーバ、FTPサーバ、CGIサーバ、JAVA(登録商標)サーバ、データベースサーバなど、様々な追加のサーバアプリケーション及び/又は中間層アプリケーションのいずれか一つを実行することもできる。 The computing units in server 120 may run one or more operating systems, including any of the operating systems described above and any commercial server operating system. Server 120 may also run any one of a variety of additional server and/or middle tier applications, such as an HTTP server, an FTP server, a CGI server, a JAVA server, a database server, and the like.

いくつかの実施形態では、サーバ120は、クライアントデバイス101、102、103、104、105及び/又は106のユーザから受信したデータフィード及び/又はイベントの更新を分析及び統合するための一つ又は複数のアプリケーションを含んでもよい。サーバ120は、クライアントデバイス101、102、103、104、105及び/又は106の一つ又は複数のディスプレイデバイスを介してデータフィード及び/又はリアルタイムイベントを表示する一つ又は複数のアプリケーションを含んでもよい。 In some embodiments, server 120 includes one or more servers for analyzing and integrating data feeds and/or event updates received from users of client devices 101, 102, 103, 104, 105, and/or 106. Applications may also be included. Server 120 may include one or more applications that display data feeds and/or real-time events via one or more display devices of client devices 101, 102, 103, 104, 105, and/or 106. .

いくつかの実施形態では、サーバ120は、分散型システムのサーバであってもよいし、ブロックチェーンを組み込んだサーバであってもよい。サーバ120は、クラウドサーバであってもよいし、人工知能技術を備えたインテリジェントクラウドコンピューティングサーバやインテリジェントクラウドホストであってもよい。クラウドサーバはクラウドコンピューティングサービスシステムにおけるホスト製品であり、従来の物理ホストと仮想専用サーバ(VPS、Virtual Private Server)サービスに存在する管理難易度が大きく、業務拡張性が弱いという欠陥を解決する。 In some embodiments, server 120 may be a distributed system server or a blockchain-embedded server. The server 120 may be a cloud server, an intelligent cloud computing server or an intelligent cloud host equipped with artificial intelligence technology. A cloud server is a host product in a cloud computing service system, and solves the deficiencies of conventional physical host and virtual private server (VPS) services, such as high management difficulty and low business expandability.

システム100は、一つ又は複数のデータベース130を含むこともできる。いくつかの実施例では、これらのデータベースはデータやその他の情報を記憶するために使用できる。例えば、データベース130のうちの一つ又は複数は、オーディオファイルやビデオファイルのような情報を記憶するために使用できる。データベース130は、さまざまな位置に配置することができる。例えば、サーバ120が使用するデータベースは、サーバ120のローカルにあってもよいし、サーバ120から離れて、ネットワーク又は専用の接続を介してサーバ120と通信してもよい。データベース130は、さまざまなタイプであってもよい。いくつかの実施例では、サーバ120が使用するデータベースは、リレーショナルデータベースであってもよい。これらのデータベースのうちの一つ又は複数は、命令に応じてデータベースとデータベースからのデータを記憶、更新、検索できる。 System 100 may also include one or more databases 130. In some embodiments, these databases can be used to store data and other information. For example, one or more of databases 130 can be used to store information such as audio files and video files. Database 130 can be located in a variety of locations. For example, the database used by server 120 may be local to server 120 or may be remote from server 120 and communicated with server 120 via a network or dedicated connection. Database 130 may be of various types. In some embodiments, the database used by server 120 may be a relational database. One or more of these databases can store, update, and retrieve data from the databases in response to instructions.

いくつかの実施例では、データベース130のうちの一つ又は複数は、アプリケーションによって使用され、アプリケーションのデータを記憶することもできる。アプリケーションで使用されるデータベースは、キー値リポジトリ、オブジェクトリポジトリ、ファイルシステムでサポートされる汎用リポジトリなど、様々なタイプのデータベースであってもよい。 In some embodiments, one or more of databases 130 may also be used by an application to store data for the application. The database used in the application may be of various types, such as a key-value repository, an object repository, or a general purpose repository supported by a file system.

図1のシステム100は、本開示に基づいて説明した様々な方法及び装置を応用することができるように、様々な方法で構成し操作することができる。
図2は、本開示の実施例によるデータ処理方法を示す例示的なフローチャートである。図1に示すようなクライアントデバイス又はサーバを利用して図2に示すような方法200を実行することができる。
The system 100 of FIG. 1 can be configured and operated in a variety of ways to enable application of the various methods and apparatus described in accordance with this disclosure.
FIG. 2 is an exemplary flowchart illustrating a data processing method according to an embodiment of the present disclosure. A client device as shown in FIG. 1 or a server may be used to perform method 200 as shown in FIG.

図2に示すように、ステップS202において、被処理対象を決定する。
ステップS204において、被処理対象の分類属性に基づいて被処理対象が所属する対象カテゴリを決定する。
As shown in FIG. 2, in step S202, a target to be processed is determined.
In step S204, the target category to which the target object belongs is determined based on the classification attribute of the target target.

ステップS206において、対象カテゴリに基づいて被処理対象に用いられる予測モデルを決定する。
ステップS208において、予測モデルを利用して被処理対象の少なくとも一つの予測特徴を処理することにより、被処理対象の予測結果を取得し、ここで、予測結果と分類属性は同種の変数である。
In step S206, a prediction model to be used for the object to be processed is determined based on the object category.
In step S208, a prediction result of the object to be processed is obtained by processing at least one prediction feature of the object to be processed using the prediction model, where the prediction result and the classification attribute are variables of the same type.

本開示の一つ又は複数の実施例により提供される方法、単変数の予測問題に対し、予測対象の単変数と同種の変数である分類属性の値に基づいて該被処理対象が所属する対象カテゴリを決定し、該対象カテゴリに属する対象のためにトレーニングされた予測モデルに基づいて予測結果を取得することができる。上記方法を利用し、異なる区間の変数予測のためにトレーニングされた予測モデルを利用して予測を行うことができ、これによって、異なるカテゴリにおける被処理対象の特性をより良く識別することができる。 A method provided by one or more embodiments of the present disclosure, for a single variable prediction problem, a target to which the processed target belongs based on the value of a classification attribute that is the same type of variable as the single variable to be predicted. A category can be determined and a prediction result can be obtained based on a prediction model trained for objects belonging to the target category. Using the above method, predictions can be made using prediction models trained for variable prediction in different intervals, thereby allowing better discrimination of the characteristics of the processed object in different categories.

以下に本開示により提供されるデータ処理方法を詳細に説明する。
ステップS202において、被処理対象を決定することができる。
ステップS204において、被処理対象の分類属性に基づいて被処理対象が所属する対象カテゴリを決定することができる。
The data processing method provided by the present disclosure will be described in detail below.
In step S202, a target to be processed can be determined.
In step S204, the target category to which the target object belongs can be determined based on the classification attribute of the target target.

いくつかの実施例では、被処理対象は動画であってもよく、分類属性は動画長さである。本開示により提供される方法によって動画を処理することでユーザが動画を視聴する予測時間を予測結果として取得することができる。ここで、該予測時間は、該動画をユーザに推薦する時、ユーザは該動画を閲覧する時間を指示することができる。別の実施例では、被処理対象は気象履歴データであり、分類属性は気象履歴データに含まれる気象パラメータの一つ(例えば、温度、湿度、風力、降水量など)であってもよい。本開示により提供される方法によって気象履歴データを処理することで天候予測を指示する予測結果を取得することができる。前記予測結果は気象パラメータの予測結果を指示することができる。別の実施例では、本開示の実施例により提供される方法によっていかなる他の形式の単変数連続値の予測タスクを実現することもできる。 In some embodiments, the processed object may be a video and the classification attribute is video length. By processing a video using the method provided by the present disclosure, a predicted time for a user to view a video can be obtained as a prediction result. Here, the predicted time allows the user to specify a time to view the video when the video is recommended to the user. In another embodiment, the object to be processed may be historical weather data, and the classification attribute may be one of the meteorological parameters included in the historical weather data (eg, temperature, humidity, wind power, precipitation, etc.). Weather historical data can be processed by the methods provided by the present disclosure to obtain forecast results instructing weather forecasts. The prediction result may indicate a prediction result of a meteorological parameter. In other embodiments, any other type of univariate continuous value prediction task may be accomplished by the methods provided by embodiments of the present disclosure.

下記内容は、被処理対象は動画であることを例として本開示の原理を説明する。
いくつかの実施例では、ステップS204は、動画の動画長さに基づいて動画が所属する動画長さの区間を決定し、決定した動画長さの区間の標識を該動画が所属する対象カテゴリとして決定することができることを含んでもよい。
In the following content, the principle of the present disclosure will be explained by taking as an example that the object to be processed is a moving image.
In some embodiments, step S204 determines the video length section to which the video belongs based on the video length of the video, and sets the indicator of the determined video length section as the target category to which the video belongs. It may include being able to determine.

動画プラットフォームに含まれる動画リソースに対し、動画リソースの数は1000本で、最長の動画長さは100秒であることを例として、異なる動画長さの動画リソースの数に基づいて動画リソースを分類することができる。例えば、分類すべきの動画長さの区間の数は2であることを例として、1000本の動画リソースを動画長さに応じて配列させることができ、前半の動画が所属する動画長さの区間を第1の動画カテゴリとして決定し、後半の動画が所属する動画長さの区間を第2の動画カテゴリとして決定する。例えば、第1の動画カテゴリは動画長さが0~45秒である区間内における動画リソースを含んでもよく、第2の動画カテゴリは動画長さが46~100秒である区間内における動画リソースを含んでもよい。同様な方法によってプラットフォームにおける動画リソースを2つ又は2つ以上のカテゴリに分割することができる。 For the video resources included in the video platform, let us assume that the number of video resources is 1000 and the longest video length is 100 seconds, and classify the video resources based on the number of video resources with different video lengths. can do. For example, assuming that the number of video length sections to be classified is 2, 1000 video resources can be arranged according to the video length, and the video length to which the first half of the video belongs The section is determined as the first video category, and the section of video length to which the latter half of the video belongs is determined as the second video category. For example, a first video category may include video resources within an interval where the video length is 0 to 45 seconds, and a second video category may include video resources within an interval where the video length is 46 to 100 seconds. May include. Video resources on a platform can be divided into two or more categories in a similar manner.

いくつかの例において、数量分布に応じて平均分類で得られた動画区間長さには大きな差異が存在する場合、様々な方法によって動画分類の結果を調整することができる。例えば、最長の動画長さは100秒であるように分類することによって2つの動画カテゴリ取得することを例として、第1の動画カテゴリに含まれる動画リソースの長さは0~10秒の区間にあるが、第2の動画カテゴリに含まれる動画リソースの長さは11~100秒の区間にある場合、動画分類の結果を調整することができる。例えば、2つの動画カテゴリに対応する動画リソースの長さの区間の差異を50秒以下に制限することができる。そのような制限に基づいて動画分類の結果を調整してもよいが、2つの動画カテゴリに含まれる動画リソースの数を同様(又は、ほぼ同じである)に制限しなくてもよい。 In some examples, if there is a large difference in the video segment lengths obtained in the average classification according to the quantity distribution, the video classification results can be adjusted in various ways. For example, suppose that two video categories are obtained by classifying the longest video length as 100 seconds, and the length of the video resource included in the first video category is in the interval from 0 to 10 seconds. However, if the length of the video resource included in the second video category is in the range of 11 to 100 seconds, the video classification result can be adjusted. For example, the difference in the lengths of video resources corresponding to two video categories can be limited to 50 seconds or less. The video classification results may be adjusted based on such restrictions, but the number of video resources included in the two video categories may not be restricted to be similar (or nearly the same).

ステップS206において、対象カテゴリに基づいて被処理対象に用いられる予測モデルを決定してよい。対象カテゴリは第1の対象カテゴリ(例えば、第1の動画カテゴリ)と第2の対象カテゴリ(例えば、第2の動画カテゴリ)を含むことを例として、対象カテゴリが第1の対象カテゴリであることを決定することに応答して、第1の予測モデルを被処理対象に用いることを決定することができ、対象カテゴリが第2の対象カテゴリであることを決定することに応答して、第2の予測モデルを被処理対象に用いることを決定することができる。ここで、第1の予測モデルは第1の動画カテゴリに属する動画リソースを利用してトレーニングされて得られた予測モデルであってもよく、第2の予測モデルは第2の動画カテゴリに属する動画リソースを利用してトレーニングされて得られた予測モデルであってもよい。そのような方式により、異なる予測モデルは、異なる対象カテゴリにおける対象が有する異なる特性(例えば、長い動画と短い動画の異なる特性)を識別するようにトレーニングされてよく、これによって、異なる対象カテゴリに属する異なる被処理対象は、より正確な予測結果を取得する。 In step S206, a prediction model to be used for the object to be processed may be determined based on the object category. For example, the target category includes a first target category (e.g., first video category) and a second target category (e.g., second video category), and the target category is the first target category. in response to determining that the first predictive model is to be used for the target, and in response to determining that the target category is a second target category, It can be determined to use the predictive model for the target to be processed. Here, the first prediction model may be a prediction model obtained by training using video resources belonging to the first video category, and the second prediction model may be a prediction model obtained by training using video resources belonging to the first video category. It may also be a predictive model obtained by training using resources. With such a scheme, different predictive models may be trained to identify different characteristics that objects in different object categories have (e.g., different characteristics of long and short videos), thereby determining whether they belong to different object categories. Different processed objects will obtain more accurate prediction results.

いくつかの例において、第1の予測モデルと第2の予測モデルは異なるパラメータを有する同類のモデル、例えば、多項式、ニューラルネットワーク又は他のいかなる適用可能な数学モデルであってもよい。 In some examples, the first predictive model and the second predictive model may be similar models with different parameters, such as polynomials, neural networks, or any other applicable mathematical model.

ステップS208において、予測モデルを利用して被処理対象の少なくとも一つの予測特徴を処理することにより、被処理対象の予測結果を取得し、ここで、予測結果と分類属性は同種の変数である。 In step S208, a prediction result of the object to be processed is obtained by processing at least one prediction feature of the object to be processed using the prediction model, where the prediction result and the classification attribute are variables of the same type.

ここで、予測結果の変数値と分類属性の変数値は同じ変数の単位を有する。動画の視聴時間の予測を例として、分類属性は動画時間であり、予測結果は動画の視聴時間であり、分類属性と予測結果の変数の単位はいずれも時間の単位である。そのような方式により、容易に単変数連続値の予測問題を分類して異なるカテゴリの変数を予測することができる。 Here, the variable value of the prediction result and the variable value of the classification attribute have the same variable unit. Taking prediction of video viewing time as an example, the classification attribute is video time, the prediction result is video viewing time, and the units of the classification attributes and prediction result variables are both units of time. With such a method, it is possible to easily classify univariate continuous value prediction problems and predict variables of different categories.

いくつかの実施例では、ステップS208は、予測モデルを利用して被処理対象の少なくとも一つの予測特徴を処理することにより、被処理対象の正規化予測結果を取得することと、対象カテゴリに用いられる正規化パラメータを利用して正規化予測結果を処理することにより、予測結果を取得することと、を含んでもよい。 In some embodiments, step S208 includes obtaining a normalized prediction result for the target object by processing at least one predictive feature of the target object using a predictive model; obtaining a prediction result by processing the normalized prediction result using a normalization parameter determined by the method.

被処理対象は動画であり、分類属性は動画長さであることを例として、異なる長さの区間における動画に対し、モデルをトレーニングする時に各サンプル動画のユーザにより視聴時間の実際の結果に対する正規化処理を行うことができ、これによって、モデルをトレーニングする時にモデルの予測効果は持続時間自体による影響を受けない。すなわち、異なる長さの区間における動画をトレーニングする時、いずれも正規化された予測結果を用いてモデルパラメータを取得することにより、モデルに異なる長さの区間における動画のユーザによる視聴特徴を学習させることができる。 As an example, the processing target is a video, and the classification attribute is video length. When training a model, we calculate the normalization of the actual result of the viewing time by the user of each sample video for videos in different length intervals. , so that when training the model, the predictive effectiveness of the model is not affected by the duration itself. In other words, when training videos in intervals of different lengths, the normalized prediction results are used to obtain model parameters, so that the model learns the user viewing characteristics of videos in intervals of different lengths. be able to.

いくつかの実施例では、ある対象カテゴリに対応する正規化パラメータは該対象カテゴリに対応する分類変数の区間パラメータであってもよい。分類変数は動画長さであることを例として、区間パラメータは該動画カテゴリに対応する動画長さの区間の最大値(すなわち、最も右側の端点)であってもよい。これにより、該動画カテゴリにおけるサンプル動画のユーザにより視聴時間の実際の結果を0と1の間に正規化させることができる。他の例において、該区間パラメータを該動画カテゴリに対応する動画長さの区間におけるいかなる他の値として決定してもよい。このような場合、正規化後の実際の結果は1より大きくてもよい。例えば、分類変数に対応する区間の最も右側の端点は無限項を含む時、区間中のいずれか一つの中間点の値を正規化パラメータとして選択することができる。 In some embodiments, the normalization parameter corresponding to a target category may be an interval parameter of a classification variable corresponding to the target category. For example, assuming that the classification variable is video length, the section parameter may be the maximum value (ie, the rightmost end point) of the video length section corresponding to the video category. This allows the actual viewing time by the user of the sample video in the video category to be normalized between 0 and 1. In other examples, the interval parameter may be determined as any other value in the interval of video length corresponding to the video category. In such cases, the actual result after normalization may be greater than one. For example, when the rightmost end point of the interval corresponding to the classification variable includes an infinite term, a value at one of the midpoints in the interval may be selected as the normalization parameter.

そのような方式によってトレーニングされて得られた予測モデルは、被処理対象の正規化予測結果を出力する。予測モデルに対応する対象カテゴリの正規化パラメータを利用して予測モデルから出力された正規化予測結果に対する逆処理を行うことにより、予測結果を取得することができる。例えば、動画長さが0~45秒である区間内における動画対象に対し、その正規化パラメータは45であってもよい。トレーニングする時にサンプル動画のユーザにより視聴時間の実際の結果は45で除算することで正規化を行う。そのような方式によってトレーニングされて得られた予測モデルは処理対象の動画を処理する時、正規化予測結果、例えば、0.4を出力する。正規化予測結果に改めて45を掛けることで実際の予測結果を取得することができ、すなわち、45×0.4=18秒である。正規化パラメータは他の数値に設定される時、同様な方式によって正規化予測結果に対する逆処理を行うことで実際の予測結果を取得してもよい。 A prediction model trained and obtained by such a method outputs a normalized prediction result of the target to be processed. A prediction result can be obtained by performing inverse processing on the normalized prediction result output from the prediction model using the normalization parameter of the target category corresponding to the prediction model. For example, the normalization parameter may be 45 for a video object within a section whose video length is 0 to 45 seconds. During training, the actual viewing time of a sample video by a user is normalized by dividing by 45. A prediction model trained using such a method outputs a normalized prediction result, for example, 0.4, when processing a video to be processed. The actual prediction result can be obtained by multiplying the normalized prediction result by 45 again, that is, 45×0.4=18 seconds. When the normalization parameter is set to another numerical value, the actual prediction result may be obtained by performing inverse processing on the normalized prediction result using a similar method.

図3は、本開示の実施例による予測モデルをトレーニングするための方法を示す例示的なフローチャートである。図3に示すような方法によってトレーニングして方法200に使用される予測モデルを取得することができる。図1に示すようなクライアントデバイス又はサーバを利用して図3に示すような方法300を実行することができる。 FIG. 3 is an example flowchart illustrating a method for training a predictive model according to an embodiment of the present disclosure. A predictive model used in method 200 can be trained by a method such as that shown in FIG. A client device as shown in FIG. 1 or a server may be used to perform method 300 as shown in FIG.

図3に示すように、ステップS302において、複数のサンプル対象を含むサンプルセットを決定する。
ステップS304において、サンプル対象の分類属性に基づいてサンプルセットにおける第1のサンプルサブセットと第2のサンプルサブセットを決定する。
As shown in FIG. 3, in step S302, a sample set including a plurality of sample objects is determined.
In step S304, a first sample subset and a second sample subset in the sample set are determined based on the classification attributes of the sample objects.

ステップS306において、第1のサンプルサブセットにおける第1のサンプル対象を利用して第1の予測モデルをトレーニングする。
ステップS308において、第2のサンプルサブセットにおける第2のサンプル対象を利用して第2の予測モデルをトレーニングする。
In step S306, a first sample object in the first sample subset is utilized to train a first predictive model.
In step S308, a second sample object in the second sample subset is utilized to train a second predictive model.

ここで、第1の予測モデルと第2の予測モデルは、被処理対象の少なくとも一つの予測特徴を処理することにより、被処理対象の予測結果を取得するために用いられ、ここで、予測結果と分類属性は同種の変数である。 Here, the first prediction model and the second prediction model are used to obtain a prediction result of the object to be processed by processing at least one prediction feature of the object to be processed, and here, the prediction result is and classification attributes are the same type of variables.

本開示の実施例により提供されるトレーニング方法を利用し、異なる分類属性を有する異なる対象のために異なる予測モデルをトレーニングしてもよく、これによって異なる特性を有する対象により正確な予測結果を提供することができる。 Utilizing the training methods provided by embodiments of the present disclosure, different prediction models may be trained for different objects with different classification attributes, thereby providing more accurate prediction results for objects with different characteristics. be able to.

以下に本開示により提供される予測モデルをトレーニングするための方法を詳細に説明する。多項式、ニューラルネットワーク又はいかなる他の形式の数学モデルを利用することで本開示に係る予測モデルを実現することができる。 The method for training a predictive model provided by the present disclosure is described in detail below. Predictive models according to the present disclosure can be implemented using polynomials, neural networks, or any other type of mathematical model.

ステップS302において、複数のサンプル対象を含むサンプルセットを決定することができる。説明すべきことは、本実施例におけるサンプル対象は公開データセットに由来することである。 In step S302, a sample set including multiple sample objects may be determined. It should be explained that the sample objects in this example are derived from public datasets.

ステップS304において、サンプル対象の分類属性に基づいてサンプルセットにおける第1のサンプルサブセットと第2のサンプルサブセットを決定することができる。
いくつかの実施例では、サンプル対象と予測モデルに関わる被処理対象は動画であってもよく、分類属性は動画長さであってもよい。別の実施例では、サンプル対象と予測モデルに関わる被処理対象は気象履歴データであってもよく、分類属性は気象履歴データに含まれる気象パラメータの一つ(例えば、温度、湿度、風力、降水量など)であってもよい。以下、サンプル対象は動画であることを例として本開示の原理を説明する。理解すべきことは、別の実施例では、本開示の実施例により提供される方法によっていかなる他の形式の単変数連続値の予測タスクを実現することもできることである。
In step S304, a first sample subset and a second sample subset in the sample set may be determined based on the classification attributes of the sample objects.
In some embodiments, the sample object and the processed object associated with the predictive model may be a video, and the classification attribute may be video length. In another embodiment, the sample object and the processing object associated with the predictive model may be historical weather data, and the classification attribute is one of the meteorological parameters included in the historical weather data (e.g., temperature, humidity, wind force, precipitation). quantity, etc.). Hereinafter, the principle of the present disclosure will be explained using an example in which the sample target is a moving image. It should be understood that in other embodiments, any other type of univariate continuous value prediction task may be accomplished by the methods provided by embodiments of the present disclosure.

第1のサンプルサブセットは第1の動画長さの区間に属する少なくとも一つの第1のサンプル対象を含んでもよく、第2のサンプルサブセットは第2の動画長さの区間に属する少なくとも一つの第2のサンプル対象を含んでもよい。上述のように、動画リソースの動画長さに基づいてサンプル動画を分類することができる。サンプルセットにおける動画リソースの最長の長さと異なる動画長さの区間における動画リソースの分布に基づいてサンプル動画を分類することができ、これによって、第1の動画カテゴリの第1のサンプルサブセットと第2の動画カテゴリの第2のサンプルサブセットを取得する。例えば、動画リソースの数は1000本で、最長の動画長さは100秒であることを例として、第1のサンプルサブセットは動画長さが0~45秒である区間内における動画リソースを含んでもよく、第2のサンプルサブセットは動画長さが46~100秒である区間内における動画リソースを含んでもよい。いくつかの例において、第1のサンプルサブセットにおけるサンプル対象の数と第2のサンプルサブセットにおけるサンプル対象の数は同じであってもよい。ここで記述される数が同様であることは、数が完全に同じであってもよいし、2つのサンプルサブセットにおけるサンプル対象の数がほぼ同じであってもよく、すなわち、数の差異は所定の閾値より小さいことを指す。他の例において、サンプル数に応じて平均配分して得られた区間差異が大きすぎる時に(例えば、第1のサンプルサブセットに対応する動画長さの区間は0~10秒であり、第2のサンプルサブセットに対応する動画長さの区間は11~100秒である時)、2つの動画カテゴリに対応する動画リソースの長さの区間差異を50秒以下に制限することができる。そのような制限に基づいてサンプル動画分類の結果を調整し、2つの動画カテゴリのサンプルサブセットに含まれる動画リソースの数を同様である(又は、ほぼ同じである)ように制限しなくてもよい。 The first sample subset may include at least one first sample object belonging to a first video length interval, and the second sample subset may include at least one second sample object belonging to a second video length interval. may include sample objects. As mentioned above, sample videos can be classified based on the video length of the video resource. The sample videos can be classified based on the longest length of the video resources in the sample set and the distribution of the video resources in intervals of different video lengths, thereby making it possible to classify the sample videos into a first sample subset of the first video category and a second sample subset of the first video category. Obtain a second sample subset of video categories. For example, assuming that the number of video resources is 1000 and the longest video length is 100 seconds, the first sample subset may include video resources within the interval whose video length is 0 to 45 seconds. Often, the second sample subset may include video resources within an interval where the video length is between 46 and 100 seconds. In some examples, the number of sample objects in the first sample subset and the number of sample objects in the second sample subset may be the same. Similar numbers described here may mean that the numbers are exactly the same or that the number of sampled objects in the two sample subsets is approximately the same, i.e., the difference in numbers is a predetermined difference. It means that it is smaller than the threshold value. In another example, when the interval difference obtained by averaging according to the number of samples is too large (for example, the video length interval corresponding to the first sample subset is 0 to 10 seconds, and the second (When the video length section corresponding to the sample subset is 11 to 100 seconds), the difference in video resource length sections corresponding to the two video categories can be limited to 50 seconds or less. The results of the sample video classification may be adjusted based on such constraints and the number of video resources included in the sample subsets of the two video categories may not be restricted to be similar (or nearly the same). .

ステップS306において、第1のサンプルサブセットにおける第1のサンプル対象を利用して第1の予測モデルをトレーニングすることができる。
ステップS308において、第2のサンプルサブセットにおける第2のサンプル対象を利用して第2の予測モデルをトレーニングすることができる。
In step S306, a first sample object in the first sample subset may be used to train a first predictive model.
In step S308, a second sample object in the second sample subset may be used to train a second predictive model.

ここで、第1の予測モデルと第2の予測モデルは、被処理対象の少なくとも一つの予測特徴を処理することにより、被処理対象の予測結果を取得するために用いられ、ここで、予測結果と分類属性は同種の変数である。 Here, the first prediction model and the second prediction model are used to obtain a prediction result of the object to be processed by processing at least one prediction feature of the object to be processed, and here, the prediction result is and classification attributes are the same type of variables.

ここで、第1の予測モデルと第2の予測モデルをトレーニングする時に使用されるサンプル対象は異なる対象カテゴリに属するが、同じ方法でモデルにおけるパラメータをトレーニングすることができる。以下、第1の予測モデルを例として本開示の実施例によるトレーニング方法を説明する。類似する方法を第2のサンプルサブセットに応用することでトレーニングして第2の予測モデルを取得することができる。 Here, although the sample objects used when training the first and second predictive models belong to different object categories, the parameters in the models can be trained in the same way. Hereinafter, a training method according to an embodiment of the present disclosure will be described using the first prediction model as an example. A similar method can be trained by applying a second subset of samples to obtain a second predictive model.

下記態様でトレーニングして第1の予測モデルを取得することができる。第1の予測モデルの第1の現在パラメータを決定し、前記第1の現在パラメータを利用して前記第1のサンプル対象の少なくとも一つの第1のサンプル特徴を処理することにより、前記第1のサンプル対象の第1のサンプル予測結果を取得し、前記第1のサンプルの第1の実際のサンプル結果を決定し、前記第1のサンプル予測結果と前記第1の実際のサンプル結果に基づいて前記第1の現在パラメータを調整する。 The first predictive model can be obtained by training in the following manner. determining a first current parameter of a first predictive model and processing at least one first sample feature of the first sample object utilizing the first current parameter; obtaining a first sample prediction result of the sample object, determining a first actual sample result of the first sample, and determining the first sample prediction result of the sample target based on the first sample prediction result and the first actual sample result. Adjusting the first current parameter.

トレーニングを開始する時、第1の予測モデルの第1の現在パラメータは所定の第1の初期のパラメータであってもよい。毎回のトレーニングを終了した後、現在のトレーニング回数に使用される第1の現在パラメータを更新することができる。様々な最適化方法、例えば、一次反復法、二次反復法、勾配降下法、ニュートン法などを含む様々な反復方法によって更新することができる。ニューラルネットワークによって実現する予測モデルに対し、誤差逆伝播の方式で第1の現在パラメータを更新してもよい。 When starting training, the first current parameter of the first predictive model may be a predetermined first initial parameter. After finishing each training session, the first current parameter used for the current training session can be updated. The update can be performed by a variety of optimization methods, including, for example, linear iterative methods, quadratic iterative methods, gradient descent, Newton's methods, and the like. For a prediction model realized by a neural network, the first current parameter may be updated using an error backpropagation method.

いくつかの実施形態では、損失関数で得られた損失結果に基づいて現在パラメータを調整することができる。
例えば、第1のサンプル予測結果と第1の実際のサンプル結果に基づいて第1の損失を決定することができ、第1の損失に基づいて第1の予測モデルの第1の現在パラメータを調整する。ここで、所定の損失関数に基づいて第1の損失を決定することができ、ここで、所定の損失関数は第1のサンプル予測結果と第1の実際のサンプル結果との差異を指示することができる。
In some embodiments, the current parameters may be adjusted based on the loss results obtained with the loss function.
For example, a first loss can be determined based on a first sample prediction result and a first actual sample result, and a first current parameter of the first prediction model is adjusted based on the first loss. do. A first loss may be determined based on a predetermined loss function, wherein the predetermined loss function indicates a difference between a first sample predicted result and a first actual sample result. Can be done.

いくつかの例において、異なる誤差のサンプル点に異なる損失関数を応用することでトレーニング過程に予測モデルの現在パラメータに対する最適化効果を向上させることができる。 In some examples, applying different loss functions to sample points with different errors can improve the optimization effect on the current parameters of the prediction model during the training process.

例えば、第1のサンプル予測結果と第1の実際のサンプル結果との差異はトレーニング閾値より小さい時、第1の損失関数を利用して第1の損失を決定し、第1のサンプル予測結果と第1の実際のサンプル結果との差異はトレーニング閾値以上である時、第2の損失関数を利用して第1の損失を決定する。ここで、第1のサンプル予測結果と第1の実際のサンプル結果との差異はトレーニング閾値に等しい時、第1の損失関数によって決定された損失と第2の損失関数によって決定された損失は同じである。第1のサンプル予測結果と第1の実際のサンプル結果との差異が大きくなるほど、サンプルの最適化誤差が大きくなることを指示する。異なる最適化誤差のサンプル点に異なる損失関数を応用することでモデルの最適化効率を向上させることができる。 For example, when the difference between the first sample prediction result and the first actual sample result is smaller than the training threshold, the first loss function is used to determine the first loss, and the difference between the first sample prediction result and the first actual sample result is smaller than the training threshold. A second loss function is used to determine the first loss when the difference from the first actual sample result is greater than or equal to a training threshold. Here, when the difference between the first sample prediction result and the first actual sample result is equal to the training threshold, the loss determined by the first loss function and the loss determined by the second loss function are the same. It is. The greater the difference between the first sample prediction result and the first actual sample result, the greater the sample optimization error. The optimization efficiency of the model can be improved by applying different loss functions to sample points with different optimization errors.

いくつかの例において、上記トレーニング閾値はトレーニング回数の増加に伴って変化するものであってもよい。例えば、上記トレーニング閾値はトレーニング回数の増加に伴って減衰することができる。機械学習方法に使用される様々な学習率減衰方法、例えば、指数減衰、固定ステップサイズ減衰、可変ステップサイズ減衰、コサインアニーリング減衰などを利用してトレーニング閾値に対する減衰を行うことができる。ここで、トレーニング閾値が大きくなるほど、最適化誤差の大きいサンプル点によりモデルに与えた影響と貢献は大きくなっている。そのため、トレーニング回数の増加に伴ってトレーニング閾値を減衰させることにより、トレーニングの初期段階において最適化誤差の大きいサンプル点によるモデルパラメータ調整に与える影響をより大きくすることができ、これによって、パラメータの迅速な調整を実現し、トレーニングの後期段階において最適化誤差の小さいサンプル点によるモデルのパラメータ調整に与える影響より大きくすることにより、パラメータの微細調整の効果を実現する。 In some examples, the training threshold may change as the number of training increases. For example, the training threshold can be attenuated as the number of training increases. Attenuation to the training threshold can be performed using various learning rate decay methods used in machine learning methods, such as exponential decay, fixed step size decay, variable step size decay, cosine annealing decay, etc. Here, as the training threshold increases, the influence and contribution given to the model by sample points with large optimization errors increases. Therefore, by attenuating the training threshold as the number of training increases, sample points with large optimization errors can have a greater influence on model parameter adjustment in the early stages of training, which allows for rapid parameter adjustment. The effect of fine parameter adjustment is achieved by making the influence on the model parameter adjustment larger than that of sample points with small optimization errors in the later stages of training.

いくつかの例において、第1の損失関数Lは下式(1)で表すことができる。 In some examples, the first loss function L 1 can be expressed by the following equation (1).

第2の損失関数Lは下式(2)で表すことができる。 The second loss function L2 can be expressed by the following equation (2).

ここで、f(x)は第1のサンプル予測結果を示し、yは第1の実際のサンプル結果を示し、βはトレーニング閾値を示す。トレーニングの初期の段階において、βは1又はいかなる他の適切な値であってもよい。 Here, f(x) indicates the first sample prediction result, y indicates the first actual sample result, and β indicates the training threshold. At the initial stage of training, β may be 1 or any other suitable value.

異なる長さの区間における動画に対し、モデルをトレーニングする時に各サンプル動画のユーザにより視聴時間の実際の結果に対する正規化処理を行うことができ、これによって、モデルをトレーニングする時にモデルの予測効果は持続時間自体による影響を受けない。すなわち、異なる長さの区間における動画をトレーニングする時、いずれも正規化された予測結果を用いてモデルパラメータを取得することにより、モデルに異なる長さの区間における動画のユーザによる視聴特徴を学習させることができる。 For videos in different length sections, when training the model, users can perform normalization processing on the actual result of the viewing time of each sample video, so that when training the model, the predictive effect of the model will be It is not affected by the duration itself. In other words, when training videos in intervals of different lengths, the normalized prediction results are used to obtain model parameters, so that the model learns the user viewing characteristics of videos in intervals of different lengths. be able to.

いくつかの実施例では、ある対象カテゴリに対応する正規化パラメータは該対象カテゴリに対応する分類変数の区間パラメータであってもよい。分類変数は動画長さであることを例として、区間パラメータは該動画カテゴリに対応する動画長さの区間の最大値であってもよい。これにより、該動画カテゴリにおけるサンプル動画のユーザにより視聴時間の実際の結果を0と1の間に正規化させることができる。他の例において、該区間パラメータを該動画カテゴリに対応する動画長さの区間におけるいかなる他の値として決定してもよい。このような場合、正規化後の実際の結果は1より大きくてもよい。例えば、分類変数に対応する区間の端点は無限項を含む時、区間中のいずれか一つの中間点の値を正規化パラメータとして選択することができる。トレーニング過程に、トレーニング回数の増加に伴って正規化パラメータを減衰させてもよい。そのような減衰は線形減衰、指数減衰又はいかなる他の可能な減衰であってもよい。 In some embodiments, the normalization parameter corresponding to a target category may be an interval parameter of a classification variable corresponding to the target category. For example, the classification variable may be the video length, and the section parameter may be the maximum value of the video length section corresponding to the video category. This allows the actual viewing time by the user of the sample video in the video category to be normalized between 0 and 1. In other examples, the interval parameter may be determined as any other value in the interval of video length corresponding to the video category. In such cases, the actual result after normalization may be greater than one. For example, when the end points of the interval corresponding to the classification variable include an infinite term, the value of one of the midpoints in the interval can be selected as the normalization parameter. During the training process, the normalization parameter may be attenuated as the number of training increases. Such damping may be linear damping, exponential damping or any other possible damping.

図4Aは、本開示の実施例による損失関数によって算出された回帰損失を示す例示図である。図4Aから分かるように、トレーニング閾値βの値にも関わらず、損失関数によって計算して得られた損失は回帰損失エラーが小さい(すなわち、予測結果と実際の結果との差異が小さい)時、L2損失の結果により近似することができ、回帰損失エラーが大きい(すなわち、予測結果と実際の結果との差異が大きい)時、L1損失の結果により近似することができる。 FIG. 4A is an exemplary diagram illustrating regression loss calculated by a loss function according to an embodiment of the present disclosure. As can be seen from FIG. 4A, regardless of the value of the training threshold β, the loss calculated by the loss function is small when the regression loss error is small (i.e., the difference between the predicted result and the actual result is small). It can be approximated by the result of L2 loss, and when the regression loss error is large (ie, the difference between the predicted result and the actual result is large), it can be approximated by the result of L1 loss.

図4Bは、本開示の実施例による損失関数の勾配を示す例示図である。図4Bから分かるように、トレーニング閾値βの値が減衰しつつあることに伴い、回帰損失エラーが小さい(すなわち、予測結果と実際の結果との差異が小さい)サンプルに対応する損失関数の勾配値が上昇しつつある。すなわち、トレーニングの進行に伴って減衰トレーニング閾値βは小さい誤差を有するサンプル点によりモデルパラメータに与えた影響と貢献を向上させることができる。 FIG. 4B is an exemplary diagram illustrating the slope of a loss function according to an embodiment of the present disclosure. As can be seen from Figure 4B, as the value of the training threshold β is decreasing, the slope value of the loss function corresponding to samples with small regression loss errors (i.e., the difference between the predicted result and the actual result is small) is on the rise. That is, as the training progresses, the attenuated training threshold β can improve the influence and contribution given to the model parameters by sample points with small errors.

いくつかの実施例では、第1のサンプルセットと第2のサンプルセットを利用してそれぞれトレーニングして第1の予測モデルと第2の予測モデルを取得した後、方法300はマルチタスクトレーニングフレームを利用して第1の予測モデルと第2の予測モデルに対するマルチタスクトレーニングを行うことを更に含んでもよく、これによって、第1の予測モデルの最終パラメータと第2の予測モデルの最終パラメータを取得する。マルチタスクトレーニングの方法によって第1の予測モデルと第2の予測モデルの汎化能力を更に向上させることができる。いかなる従来のマルチタスクトレーニングフレームを利用して第1の予測モデルと第2の予測モデルに対するマルチタスクトレーニングを行うことができる。例えば、MMoe(Multi-gate Mixture-of-Experts)又はPLE(Progressive Layered Extraction)モデルを利用して本開示の実施例に使用されるマルチタスクトレーニングフレームを実現することができる。 In some embodiments, after training utilizing the first sample set and the second sample set to obtain the first predictive model and the second predictive model, respectively, the method 300 generates a multi-task training frame. and performing multi-task training on the first predictive model and the second predictive model, thereby obtaining final parameters of the first predictive model and final parameters of the second predictive model. . The generalization ability of the first predictive model and the second predictive model can be further improved by a multi-task training method. Any conventional multi-task training frame can be used to perform multi-task training on the first predictive model and the second predictive model. For example, a multi-gate mixture-of-experts (MMoe) or progressive layered extraction (PLE) model may be used to implement the multi-task training frame used in the embodiments of the present disclosure.

図5は、本開示の実施例によるマルチタスクトレーニングフレームを示す例示図である。
図5に示すように、マルチタスクフレーム500は、入力501、エキスパートネットワーク502、Gateネットワーク503-A、503-B、第1のモデル504、第2のモデル505及びそれぞれ第1のモデル504と第2のモデル505に対応する第1の出力506と第2の出力507を含んでもよい。
FIG. 5 is an example diagram illustrating a multi-task training frame according to an embodiment of the present disclosure.
As shown in FIG. 5, the multitask frame 500 includes an input 501, an expert network 502, Gate networks 503-A, 503-B, a first model 504, a second model 505, and the first model 504 and the second model 505, respectively. A first output 506 and a second output 507 corresponding to two models 505 may be included.

ここで、第1のモデル504、第2のモデル505は図3に合わせて記載のトレーニング方法によってトレーニングされて得られた第1の予測モデルと第2の予測モデルであってもよい。例えば、第1のモデル504は第1の動画カテゴリの動画のユーザにより視聴時間を予測するために用いられてよく、第2のモデル505は第2の動画カテゴリの動画のユーザにより視聴される時間を予測するために用いられてよい。 Here, the first model 504 and the second model 505 may be a first predictive model and a second predictive model obtained by training by the training method described in conjunction with FIG. 3. For example, a first model 504 may be used to predict the amount of time viewed by a user of a video in a first video category, and a second model 505 may be used to predict the amount of time viewed by a user of a video in a second video category. may be used to predict.

理解すべきことは、第1のモデル504と第2のモデル505は2つの異なるモデルであるが、第1の動画カテゴリの動画のユーザにより視聴時間に対する予測と、第2の動画カテゴリの動画のユーザにより視聴される時間に対する予測と、という2つのタスクで学習すべきの特徴標識は同様あるため、共有化されたエキスパートネットワーク502、Gateネットワーク503-A、503-Bを介して第1のモデルに対応する予測タスクと第2のモデルのタスクを予測する共通の箇所を学習することができ、これによって、モデルの汎化能力を更に向上させることができることである。 What should be understood is that although the first model 504 and the second model 505 are two different models, they are based on predictions about the viewing time by users for videos in the first video category and for videos in the second video category. Since the feature indicators to be learned for the two tasks of predicting the viewing time by the user are the same, the first model is It is possible to learn common points for predicting the prediction task corresponding to the second model and the task of the second model, thereby further improving the generalization ability of the model.

図5において2つのモデルのみを示すが、理解すべきことは、図5に示すようなマルチタスクトレーニングフレームはより多くのモデルのマルチタスクトレーニングに用いられることができることである。 Although only two models are shown in FIG. 5, it should be understood that a multi-task training frame as shown in FIG. 5 can be used for multi-task training of more models.

いくつかの実施例では、入力501は被処理対象の少なくとも一つの予測特徴に対応することができる。被処理対象は動画であることを例として、入力501は動画を視聴したユーザのユーザ特徴、動画アイテム(item)の特徴などであってもよい。ここで、動画アイテム特徴は動画識別子、動画内容カテゴリ、イイネ数、コメント数、コレクション数、履歴クリック率などを含んでもよい。更に、入力501は、対応する被処理対象の分類属性を指示するラベルを更に含んでもよい。そのようなラベルを利用して入力501に対応する被処理対象が所属する対象カテゴリを決定することができ、後続過程においてどのモデル(例えば、第1のモデルと第2のモデルのうちのどちらか)を使用して最終の出力結果を取得するかということを更に決定することができる。 In some embodiments, input 501 can correspond to at least one predictive feature of the object being processed. For example, assuming that the object to be processed is a video, the input 501 may be the user characteristics of the user who viewed the video, the characteristics of the video item (item), or the like. Here, the video item characteristics may include a video identifier, video content category, number of likes, number of comments, number of collections, historical click rate, and the like. Furthermore, the input 501 may further include a label indicating the classification attribute of the corresponding processed object. Using such a label, it is possible to determine the target category to which the processed target corresponding to the input 501 belongs, and in the subsequent process, it is possible to determine which model (for example, either the first model or the second model) ) to obtain the final output result.

図5に示すようなマルチタスクトレーニングフレームにおいて、第k個のタスク(k=1又は2)に対し、その出力は式(3)により示されてよい。 In the multitask training frame as shown in FIG. 5, the output for the kth task (k=1 or 2) may be expressed by equation (3).

ここで、nは、エキスパートネットワーク502におけるサブエキスパートネットワークの数を示し、g(x)は、入力がxである時の第k個のタスクのGateネットワークが第i個のサブエキスパートネットワークの出力に用いられ、E(x)は、入力がxである時に対する第i個のサブエキスパートネットワークの出力を示す。fは第k個のタスクのモデルを示す。k=1の時、fは第1のモデルを示すことができる。k=2の時、fは第2のモデルを示すことができる。 Here, n indicates the number of sub-expert networks in the expert network 502, and g k (x) i indicates that the Gate network of the k-th task is the number of sub-expert networks of the i-th sub-expert network when the input is x. Used for the output, E i (x) indicates the output of the i-th sub-expert network when the input is x. f k indicates the model of the kth task. When k=1, f can represent the first model. When k=2, f can represent the second model.

ここで、各サブエキスパートネットワークは、1つのフル接続ネットワークとして実現することができ、各Gateネットワークは一つの線形変換とsoftmaxの組み合わせとして実現することができる。Gateネットワークは、入力xをn次元にマッピングするために用いられてよく、その後、各次元の結果にsoftmax関数を応用し、各サブエキスパートネットワークに用いられる比重を取得することができる。 Here, each sub-expert network can be realized as one fully connected network, and each Gate network can be realized as one combination of linear transformation and softmax. The Gate network may be used to map the input x into n dimensions, and then a softmax function may be applied to the result of each dimension to obtain the weights used for each sub-expert network.

上述のように、入力xは対象カテゴリを指示するラベルを含むため、ラベルに基づいて第1のモデル又は第2のモデルを利用して最後の出力結果を決定することができる。
マルチタスクトレーニング時、マルチタスクの損失関数は式(4)により示されてよい。
As mentioned above, since the input x includes a label indicating the target category, the first model or the second model can be used to determine the final output result based on the label.
During multitask training, the multitask loss function may be expressed by equation (4).

ここで、lは第i個のタスクの損失を示すことができ、αは第i個のタスクに用いられる比重を示すことができ、Nはタスク全体数を示す。
ここで、各タスクの比重は各比重の重要性により決定されてよい。例えば、啓発式のアルゴリズム(例えば、強化学習又は進化学習)で各タスクの比重を決定することができる。
Here, l i can represent the loss of the i-th task, α i can represent the weight used for the i-th task, and N represents the total number of tasks.
Here, the weight of each task may be determined based on the importance of each weight. For example, an enlightened algorithm (eg, reinforcement learning or evolutionary learning) can determine the weight of each task.

図6は、本開示の実施例によるデータ処理装置を示す例示的なブロック図である。
図6に示すように、データ処理装置600は、被処理対象決定ユニット610、対象カテゴリ決定ユニット620、予測モデル決定ユニット630及び予測ユニット640を含んでもよい。
FIG. 6 is an exemplary block diagram illustrating a data processing apparatus according to an embodiment of the present disclosure.
As shown in FIG. 6, the data processing device 600 may include a processing target determining unit 610, a target category determining unit 620, a prediction model determining unit 630, and a prediction unit 640.

ここで、被処理対象決定ユニット610は被処理対象を決定するように構成されてよい。対象カテゴリ決定ユニット620は前記被処理対象の分類属性に基づいて前記被処理対象が所属する対象カテゴリを決定するように構成されてよい。予測モデル決定ユニット630は前記対象カテゴリに基づいて前記被処理対象に用いられる予測モデルを決定するように構成されてよい。予測ユニット640は前記予測モデルを利用して前記被処理対象の少なくとも一つの予測特徴を処理することにより、前記被処理対象の予測結果を取得するように構成されてよい。ここで、前記予測結果と前記分類属性は同種の変数である。 Here, the processing target determination unit 610 may be configured to determine the processing target. The object category determining unit 620 may be configured to determine an object category to which the object to be processed belongs based on a classification attribute of the object to be processed. Prediction model determination unit 630 may be configured to determine a prediction model to be used for the processed object based on the object category. The prediction unit 640 may be configured to obtain a prediction result of the object by processing at least one prediction feature of the object using the prediction model. Here, the prediction result and the classification attribute are variables of the same type.

図6に示すようなユニット610~640を利用して図2に示すようなステップS202~S208を実行することができ、ここで詳細な説明を省略する。
図7は、本開示の実施例による予測モデルをトレーニングするための装置を示す例示的なブロック図である。
Steps S202 to S208 as shown in FIG. 2 can be executed using units 610 to 640 as shown in FIG. 6, and detailed description thereof will be omitted here.
FIG. 7 is an example block diagram illustrating an apparatus for training a predictive model according to an embodiment of the present disclosure.

図7に示すように、装置700は、サンプル決定ユニット710、分類ユニット720、第1の予測モデルトレーニングユニット730及び第2のモデルトレーニングユニット740を含んでもよい。 As shown in FIG. 7, the apparatus 700 may include a sample determination unit 710, a classification unit 720, a first predictive model training unit 730, and a second model training unit 740.

ここで、サンプル決定ユニット710は複数のサンプル対象を含むサンプルセットを決定するように構成されてよい。分類ユニット720は前記サンプル対象の分類属性に基づいてサンプルセットにおける第1のサンプルサブセットと第2のサンプルサブセットを決定するように構成されてよい。第1の予測モデルトレーニングユニット730は第1のサンプルサブセットにおける第1のサンプル対象を利用して第1の予測モデルをトレーニングするように構成されてよい。第2のモデルトレーニングユニット740は第2のサンプルサブセットにおける第2のサンプル対象を利用して第2の予測モデルをトレーニングするように構成されてよい。ここで、前記第1の予測モデルと第2の予測モデルは、被処理対象の少なくとも一つの予測特徴を処理することにより、被処理対象の予測結果を取得するために用いられ、ここで、前記予測結果と前記分類属性は同種の変数である。 Here, the sample determination unit 710 may be configured to determine a sample set including a plurality of sample objects. Classification unit 720 may be configured to determine a first sample subset and a second sample subset in a sample set based on classification attributes of the sample objects. The first predictive model training unit 730 may be configured to utilize the first sample objects in the first sample subset to train the first predictive model. A second model training unit 740 may be configured to utilize a second sample object in a second sample subset to train a second predictive model. Here, the first prediction model and the second prediction model are used to obtain a prediction result of the object to be processed by processing at least one prediction feature of the object to be processed; The prediction result and the classification attribute are the same type of variables.

図7に示すようなユニット710~740を利用して図3に示すようなステップS302~S308を実行することができ、ここで詳細な説明を省略する。
本開示の技術案において、関連するユーザ個人情報の収集、記憶、使用、加工、伝送、提供と開示などの処理は、すべて関連法律法規の規定に適合し、公序良俗に反しない。
Steps S302 to S308 as shown in FIG. 3 can be executed using units 710 to 740 as shown in FIG. 7, and detailed description thereof will be omitted here.
In the technical proposal disclosed herein, the collection, storage, use, processing, transmission, provision and disclosure of related user personal information shall comply with the provisions of relevant laws and regulations and will not violate public order and morals.

本開示の実施例によれば、電子機器、可読記憶媒体及びコンピュータプログラム製品を更に提供する。
図8に示すように、ここでは、本開示の様々な態様に適用可能なハードウェア装置の一例である、本開示のサーバ又はクライアントとして利用可能な電子機器800の構成ブロック図について説明する。電子機器は、様々な形態のデジタル電子コンピュータ、例えば、ラップトップ型コンピュータ、デスクトップ型コンピュータ、ステージ、個人用デジタル補助装置、サーバ、ブレードサーバ、大型コンピュータ、その他の適切なコンピュータを示す。電子機器は更に、様々な形態の移動装置、例えば、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブル機器とその他の類似する計算装置を示してよい。本明細書に示される部品、これらの接続関係及びこれらの機能は例示的なものに過ぎず、本明細書に説明した及び/又は請求した本開示の実現を制限しない。
Embodiments of the present disclosure further provide electronic devices, readable storage media, and computer program products.
As shown in FIG. 8, a configuration block diagram of an electronic device 800 that can be used as a server or a client of the present disclosure, which is an example of a hardware device applicable to various aspects of the present disclosure, will be described here. Electronic equipment refers to various forms of digital electronic computers, such as laptop computers, desktop computers, stages, personal digital assistants, servers, blade servers, large format computers, and other suitable computers. Electronic devices may also refer to various forms of mobile devices, such as personal digital processing, mobile phones, smart phones, wearable devices, and other similar computing devices. The components, their interconnections, and their functions depicted herein are exemplary only and do not limit implementation of the present disclosure as described and/or claimed herein.

図8に示すように、電子機器800は、計算ユニット801を含み、それはリードオンリーメモリ(ROM)802に記憶されたコンピュータプログラム又は記憶ユニット808からランダムアクセスメモリ(RAM)803にロードされるコンピュータプログラムによって、種々の適当な動作と処理を実行することができる。RAM 803において、更に電子機器800を操作するために必要な様々なプログラムとデータを記憶してよい。計算ユニット801、ROM 802及びRAM 803は、バス804を介して互いに接続される。入力/出力(I/O)インターフェース805も、バス804に接続される。 As shown in FIG. 8, the electronic device 800 includes a computing unit 801, which is a computer program stored in a read-only memory (ROM) 802 or loaded into a random access memory (RAM) 803 from a storage unit 808. may perform various appropriate operations and processes. The RAM 803 may further store various programs and data necessary to operate the electronic device 800. Computing unit 801, ROM 802 and RAM 803 are connected to each other via bus 804. An input/output (I/O) interface 805 is also connected to bus 804.

電子機器800における複数の部品はI/Oインターフェース805に接続され、入力ユニット806、出力ユニット807、記憶ユニット808及び通信ユニット809を含む。入力ユニット806は、電子機器800に情報を入力することが可能な任意のタイプの装置であってもよく、入力ユニット806は、入力された数字又は文字情報と、電子機器のユーザ設定及び/又は機能制御に関するキー信号入力を生成することができ、マウス、キーボード、タッチスクリーン、トラックボード、トラックボール、操作レバー、マイク及び/又はリモコンを含んでもよいが、これらに限定されない。出力ユニット807は、情報を提示することが可能ないずれかのタイプの装置であってもよく、ディスプレイ、スピーカ、映像/オーディオ出力端末、バイブレータ、及び/又はプリンタを含んでもよいが、これらに限定されない。記憶ユニット808は磁気ディスク、光ディスクを含んでもよいが、これらに限定されない。通信ユニット809は、電子機器800が例えば、インターネットであるコンピュータネットワーク及び/又は様々な電気通信ネットワークを介して他の装置と情報/データを交換することを可能にし、モデム、ネットワークカード、赤外線通信装置、無線通信送受信機、及び/又はチップセット、例えば、ブルートゥース(登録商標)TM装置、802.11装置、WiFi装置、WiMax装置、セルラー通信装置及び/又は類似物を含んでもよいが、これらに限定されない。 A plurality of components in electronic device 800 are connected to I/O interface 805 and include input unit 806, output unit 807, storage unit 808, and communication unit 809. The input unit 806 may be any type of device capable of inputting information into the electronic device 800, and the input unit 806 may input numerical or textual information and user settings of the electronic device and/or Key signal inputs may be generated for function control and may include, but are not limited to, a mouse, keyboard, touch screen, trackboard, trackball, operating lever, microphone, and/or remote control. Output unit 807 may be any type of device capable of presenting information and may include, but is not limited to, a display, a speaker, a video/audio output terminal, a vibrator, and/or a printer. Not done. Storage unit 808 may include, but is not limited to, magnetic disks and optical disks. The communication unit 809 allows the electronic device 800 to exchange information/data with other devices via a computer network and/or various telecommunication networks, for example the Internet, and includes modems, network cards, infrared communication devices. , wireless communication transceivers, and/or chipsets, such as, but not limited to, Bluetooth™ devices, 802.11 devices, WiFi devices, WiMax devices, cellular communication devices, and/or the like. Not done.

計算ユニット801は処理及びコンピューティング能力を有する様々な汎用及び/又は専用の処理コンポーネントであってもよい。計算ユニット801のいくつかの例として、中央処理ユニット(CPU)、グラフィックス処理ユニット(GPU)、様々な専用人工知能(AI)計算チップ、機械学習モデルアルゴリズムを実行する様々な計算ユニット、デジタル信号プロセッサ(DSP)、及び任意の適当なプロセッサ、コントローラ、マイクロコントローラなどを含んでもよいが、これらに限定されない。計算ユニット801は上記内容で説明した各方法と処理、例えば、方法200、300を実行する。例えば、いくつかの実施例では、方法200、300は、記憶ユニット808のような機械可読媒体に有形に組み込まれたコンピュータソフトウェアプログラムとして実装されてもよい。いくつかの実施例では、コンピュータプログラムの一部の又は全てはROM 802及び/又は通信ユニット809を経して電子機器800にロード及び/又はインストールされてよい。コンピュータプログラムがRAM 803にロードされて計算ユニット801によって実行されると、以上で説明される方法200、300の一つ又は複数のステップを実行することできる。代替的に、他の実施形態では、計算ユニット801は、他の任意の適当な方法で(例えば、ファームウェアを用いて)、方法200、300を実行するように構成される。 Computing unit 801 may be a variety of general purpose and/or special purpose processing components with processing and computing capabilities. Some examples of computational units 801 include central processing units (CPUs), graphics processing units (GPUs), various specialized artificial intelligence (AI) computational chips, various computational units that execute machine learning model algorithms, digital signals, etc. It may include, but is not limited to, a processor (DSP), and any suitable processor, controller, microcontroller, etc. Computing unit 801 executes the methods and processes described above, such as methods 200 and 300. For example, in some embodiments, methods 200, 300 may be implemented as a computer software program tangibly embodied in a machine-readable medium, such as storage unit 808. In some embodiments, some or all of the computer program may be loaded and/or installed on electronic device 800 via ROM 802 and/or communication unit 809. Once the computer program is loaded into the RAM 803 and executed by the calculation unit 801, one or more steps of the method 200, 300 described above can be performed. Alternatively, in other embodiments, computing unit 801 is configured to perform methods 200, 300 in any other suitable manner (eg, using firmware).

本明細書で上述したシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、複雑なプログラマブル論理デバイス(CPLD)、ソフトウェア・ハードウェア、ファームウェア、ソフトウェア、及び/又はこれらの組み合わせにおいて実装することができる。これらの様々な実施形態は、一つ又は複数のコンピュータプログラムに実施され、この一つ又は複数のコンピュータプログラムは少なくとも一つのプログラマブルプロセッサを含むプログラマブルシステムで実行し及び/又は解釈してもよく、このプログラマブルプロセッサは専用又は汎用プログラマブルプロセッサであってもよく、記憶システム、少なくとも一つの入力装置、少なくとも一つの出力装置からデータと命令を受信し、データと命令をこの記憶システム、この少なくとも一つの入力装置、この少なくとも一つの出力装置に送信してよいこと、を含んでもよい。 Various embodiments of the systems and techniques described herein above may be implemented as digital electronic circuit systems, integrated circuit systems, field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs), application specific standard products, etc. (ASSP), system on a chip (SOC), complex programmable logic device (CPLD), software/hardware, firmware, software, and/or combinations thereof. These various embodiments may be implemented in one or more computer programs that may be executed and/or interpreted on a programmable system including at least one programmable processor. The programmable processor may be a special purpose or general purpose programmable processor and receives data and instructions from a storage system, at least one input device, and at least one output device, and transmits data and instructions to the storage system, the at least one input device, and the at least one output device. , may be transmitted to the at least one output device.

本開示の方法を実施するプログラムコードは一つ又は複数のプログラミング言語のいかなる組み合わせで書かれてよい。これらのプログラムコードを汎用コンピュータ、特殊目的のコンピュータ又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供してよく、これによってプログラムコードはプロセッサ又はコントローラにより実行される時にフローチャート及び/又はブロック図に規定の機能/操作を実施する。プログラムコードは完全に機械で実行してよく、部分的に機械で実行してよく、独立ソフトウェアパッケージとして部分的に機械で実行し且つ部分的に遠隔機械で実行してよく、又は完全に遠隔機械又はサーバで実行してよい。 Program code implementing the methods of this disclosure may be written in any combination of one or more programming languages. These program codes may be provided to a processor or controller of a general purpose computer, special purpose computer, or other programmable data processing device such that the program codes, when executed by the processor or controller, follow the flowcharts and/or block diagrams set forth in the flowcharts and/or block diagrams. Perform functions/operations. The program code may be executed entirely on a machine, partially executed on a machine, partially executed on a machine and partially executed on a remote machine as an independent software package, or may be executed entirely on a remote machine. Or it can be executed on the server.

本開示のコンテキストにおいて、機械可読媒体は有形の媒体であってもよく、命令実行システム、装置又はデバイスに使用される又は命令実行システム、装置又はデバイスに結合されて使用されるプログラムを具備又は記憶してよい。機械可読媒体は機械可読信号媒体又は機械可読記憶媒体であってもよい。機械可読媒体は、電子、磁気、光学、電磁、赤外線、又は半導体システム、装置又はデバイス、又は上記内容のいかなる適切な組み合わせを含んでもよいが、これらに限定されない。機械可読記憶媒体のより具体的な例は、一つ又は複数のリード線による電気接続、ポータブルコンピュータディスク、ハードディスク、ランダム・アクセス・メモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスク読み出し専用メモリ(CD-ROM)、光記憶装置、磁気記憶装置、又は上記内容のいかなる適切な組み合わせを含む。 In the context of this disclosure, a machine-readable medium may be a tangible medium, comprising or storing a program for use in or coupled to an instruction execution system, apparatus or device. You may do so. A machine-readable medium may be a machine-readable signal medium or a machine-readable storage medium. Machine-readable media may include, but are not limited to, electronic, magnetic, optical, electromagnetic, infrared, or semiconductor systems, apparatus or devices, or any suitable combination of the above. More specific examples of machine-readable storage media include electrical connection through one or more leads, portable computer disks, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable memory, etc. including dedicated memory (EPROM or flash memory), fiber optics, portable compact disc read only memory (CD-ROM), optical storage, magnetic storage, or any suitable combination of the above.

ユーザとのインタラクションを提供するために、コンピュータにはここで説明したシステムと技術を実施してよく、このコンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)監視モニタ)、及びキーボードとポインティング装置(例えば、マウスやトラックボール)を備え、ユーザはこのキーボードとこのポインティング装置を介してコンピュータに入力してよい。その他の種類の装置は更に、ユーザとのインタラクションを提供するためのものであってもよい。例えば、ユーザに提供するフィードバックはいかなる形態の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、いかなる形態(音入力、音声入力、又は触覚入力を含む)でユーザからの入力を受信してよい。 To provide user interaction, a computer may be implemented with the systems and techniques described herein and may include a display device (e.g., a cathode ray tube (CRT) or LCD) for displaying information to the user. (liquid crystal display) surveillance monitor), and a keyboard and pointing device (eg, a mouse or trackball) through which a user may provide input to the computer. Other types of devices may also be for providing interaction with a user. For example, the feedback provided to the user may be any form of sensory feedback (e.g., visual, auditory, or haptic feedback), and any form of feedback provided to the user (including audio, audio, or tactile input) may receive input.

ここで述べたシステムや技術は、バックステージ部材を含む計算システム(例えば、データサーバとして)や、ミドルウェア部材を含む計算システム(例えば、アプリケーションサーバ)や、フロントエンド部材を含む計算システム(例えば、グラフィカルユーザインターフェースやウェブブラウザを有するユーザコンピュータ、ユーザが、そのグラフィカルユーザインターフェースやウェブブラウザを通じて、それらのシステムや技術の実施形態とのインタラクションを実現できる)、あるいは、それらのバックステージ部材、ミドルウェア部材、あるいはフロントエンド部材の任意の組み合わせからなる計算システムには実施されてもよい。システムの部材は、任意の形式や媒体のデジタルデータ通信(例えば、通信ネットワーク)により相互に接続されてもよい。通信ネットワークの一例は、ローカルネットワーク(LAN)、広域ネットワーク(WAN)とインターネットを含む。 The systems and technologies described here may include computing systems that include backstage components (e.g., as data servers), middleware components (e.g., application servers), and front-end components (e.g., as graphical a user computer having a user interface or web browser that allows a user to interact with those systems or technology embodiments through its graphical user interface or web browser; or backstage or middleware components thereof; A computing system comprising any combination of front end components may be implemented. The components of the system may be interconnected by any form or medium of digital data communication (eg, a communication network). Examples of communication networks include local networks (LANs), wide area networks (WANs), and the Internet.

コンピュータシステムは、クライアント側とサーバを含んでもよい。クライアント側とサーバは、一般的に相互に遠く離れ、通常、通信ネットワークを介してインタラクションを行う。互にクライアント側-サーバという関係を有するコンピュータプログラムを対応するコンピュータで運転することによってクライアント側とサーバとの関係を生成する。サーバは、クラウドサーバであってもよく、分散型システムのサーバでも、又はブロックチェーンと組み合わされたサーバであってもよい。 A computer system may include a client side and a server. The client side and server are typically far apart from each other and typically interact via a communications network. A relationship between a client side and a server is created by running computer programs that have a mutual client side-server relationship on corresponding computers. The server may be a cloud server, a distributed system server, or a server combined with a blockchain.

理解すべきこととして、前述した様々な形態のフローを用いて、ステップを改めて順位付け、増加又は削除してよい。例えば、本開示に記載された各ステップは、並列的に実行してもよいし、順次実行してもよいし、異なる順序で実行させてもよいし、本開示に開示された技術案が所望する結果を実現できれば、本文はこれに限定されないことである。 It should be understood that steps may be re-ranked, added to, or deleted using the various forms of flow described above. For example, each step described in this disclosure may be performed in parallel, sequentially, or in a different order, and the technical solutions disclosed in this disclosure may be performed as desired. The main text is not limited to this, as long as the results can be achieved.

本開示の実施例又は例は図面を参照して説明されたが、上記の方法、システム、及び装置は単なる例示的な実施例又は例であり、本発明の範囲はこれらの実施例又は例によって制限されるものではなく、授権後の特許請求の範囲及びその均等範囲のみによって限定されることを理解されたい。実施例又は例の様々な要素は省略されてもよく、又はそれらの均等要素によって代替されてもよい。なお、各ステップは、本開示で説明した順序とは異なる順序で実行されてもよい。更に、実施例又は例の様々な要素は、様々な方法で組み合わせられてもよい。重要なのは、技術の進化に伴い、ここで説明される多くの要素は、本開示の後に現れる同等の要素に置き換えることができるということである。
Although embodiments or examples of the present disclosure have been described with reference to the drawings, the methods, systems, and apparatus described above are merely exemplary embodiments or examples, and the scope of the invention is limited by these embodiments or examples. It is to be understood that the invention is not limited, but is limited only by the scope of the following claims and their equivalents. Various elements of the embodiments or examples may be omitted or replaced by equivalent elements thereof. Note that each step may be performed in a different order than described in this disclosure. Furthermore, various elements of the embodiments or examples may be combined in various ways. Importantly, as technology evolves, many of the elements described herein can be replaced with equivalent elements that appear after this disclosure.

Claims (23)

データ処理方法であって、
被処理対象を決定することと、
前記被処理対象の分類属性に基づいて、前記被処理対象が所属する対象カテゴリを決定することと、
前記対象カテゴリに基づいて前記被処理対象に用いられる予測モデルを決定することと、
前記予測モデルを利用して前記被処理対象の少なくとも一つの予測特徴を処理することにより、前記被処理対象の予測結果を取得し、ここで、前記予測結果と前記分類属性は同種の変数を有することとを含む、データ処理方法。
A data processing method, comprising:
Deciding on the target to be processed;
determining a target category to which the processed object belongs based on a classification attribute of the processed object;
determining a prediction model to be used for the target to be processed based on the target category;
obtaining a prediction result of the object to be processed by processing at least one prediction feature of the object to be processed using the prediction model, wherein the prediction result and the classification attribute have the same type of variable; Data processing methods, including.
前記被処理対象は動画であり、前記分類属性は動画長さであり、前記予測結果はユーザが前記動画を視聴する予測時間である、請求項1に記載のデータ処理方法。 2. The data processing method according to claim 1, wherein the processing target is a video, the classification attribute is video length, and the prediction result is a predicted time for a user to view the video. 被処理対象の分類属性に基づいて被処理対象が所属する対象カテゴリを決定することは、
前記動画の動画長さに基づいて前記動画が所属する動画長さの区間を決定することと、
前記動画長さの区間の標識を前記対象カテゴリとして決定することと、を含む、請求項2に記載のデータ処理方法。
Determining the target category to which the processed object belongs based on the classification attributes of the processed object is as follows:
determining a video length section to which the video belongs based on the video length of the video;
3. The data processing method according to claim 2, further comprising determining an indicator of the video length section as the target category.
前記対象カテゴリに基づいて前記被処理対象に用いられる予測モデルを決定することは、
前記被処理対象が所属する対象カテゴリが第1の動画長さの区間であることを決定することに応答して、第1の予測モデルを前記被処理対象に用いることを決定することと、
前記被処理対象が所属する対象カテゴリが第2の動画長さの区間であることを決定することに応答して、第2の予測モデルを前記被処理対象に用いることを決定することと、を含む、請求項3に記載のデータ処理方法。
Determining a prediction model to be used for the target to be processed based on the target category includes:
In response to determining that the target category to which the processed target belongs is an interval of a first video length, determining to use a first prediction model for the processed target;
determining that a second predictive model is to be used for the processing target in response to determining that the target category to which the processing target belongs is a second video length section; The data processing method according to claim 3, comprising:
前記少なくとも一つの予測特徴は、前記動画を視聴したユーザのユーザ特徴と前記動画アイテム特徴を含む、請求項2に記載のデータ処理方法。 3. The data processing method according to claim 2, wherein the at least one predictive feature includes a user feature of a user who viewed the video and a feature of the video item. 前記予測モデルを利用して前記被処理対象の少なくとも一つの予測特徴を処理することにより、前記被処理対象の予測結果を取得することは、
前記予測モデルを利用して前記被処理対象の少なくとも一つの予測特徴を処理することにより、前記被処理対象の正規化予測結果を取得することと、
前記対象カテゴリに用いられる正規化パラメータを利用して前記正規化予測結果を処理することにより、前記予測結果を取得することと、を含む、請求項1に記載のデータ処理方法。
Obtaining a prediction result of the object to be processed by processing at least one prediction feature of the object to be processed using the prediction model,
obtaining a normalized prediction result of the target to be processed by processing at least one predictive feature of the target to be processed using the prediction model;
The data processing method according to claim 1, comprising: obtaining the prediction result by processing the normalized prediction result using a normalization parameter used for the target category.
前記被処理対象は気象履歴データであり、前記分類属性は気象履歴データに含まれる気象パラメータであり、前記予測結果は予測気象パラメータである、請求項1に記載のデータ処理方法。 2. The data processing method according to claim 1, wherein the processing target is weather history data, the classification attribute is a weather parameter included in the weather history data, and the prediction result is a predicted weather parameter. 予測モデルをトレーニングするための方法であって、
複数のサンプル対象を含むサンプルセットを決定することと、
前記サンプル対象の分類属性に基づいてサンプルセットにおける第1のサンプルサブセットと第2のサンプルサブセットを決定することと、
第1のサンプルサブセットにおける第1のサンプル対象を利用して第1の予測モデルをトレーニングすることと、
第2のサンプルサブセットにおける第2のサンプル対象を利用して第2の予測モデルをトレーニングすることと、を含み、
ここで、前記第1の予測モデルと第2の予測モデルは、被処理対象の少なくとも一つの予測特徴を処理することにより、被処理対象の予測結果を取得するために用いられ、前記予測結果と前記分類属性は同種の変数である、予測モデルをトレーニングするための方法。
A method for training a predictive model, the method comprising:
determining a sample set that includes multiple sample subjects;
determining a first sample subset and a second sample subset in a sample set based on classification attributes of the sample objects;
training a first predictive model utilizing a first sample subject in a first sample subset;
training a second predictive model utilizing a second sample subject in a second sample subset;
Here, the first prediction model and the second prediction model are used to obtain a prediction result of the object to be processed by processing at least one prediction feature of the object to be processed, and the first prediction model and the second prediction model are used to obtain a prediction result of the object to be processed, and A method for training a predictive model, wherein the classification attributes are homogeneous variables.
前記サンプル対象と前記被処理対象は動画であり、前記分類属性は動画長さである、請求項8に記載の方法。 9. The method of claim 8, wherein the sample object and the processed object are videos, and the classification attribute is video length. 前記第1のサンプルサブセットは第1の動画長さの区間に属する少なくとも一つの第1のサンプル対象を含み、前記第2のサンプルサブセットは第2の動画長さの区間に属する少なくとも一つの第2のサンプル対象を含む、請求項9に記載の方法。 The first sample subset includes at least one first sample object belonging to a first video length interval, and the second sample subset includes at least one second sample object belonging to a second video length interval. 10. The method of claim 9, comprising a sample subject of . 前記第1のサンプルサブセットにおけるサンプル対象の数は前記第2のサンプルサブセットにおけるサンプル対象の数と同じである、請求項10に記載の方法。 11. The method of claim 10, wherein the number of sample objects in the first sample subset is the same as the number of sample objects in the second sample subset. 第1のサンプルサブセットにおけるサンプル対象を利用して第1の予測モデルをトレーニングすることは、
第1の予測モデルの第1の現在パラメータを決定することと、
前記第1の現在パラメータを利用して前記第1のサンプル対象の少なくとも一つの第1のサンプル特徴を処理することにより、前記第1のサンプル対象の第1のサンプル予測結果を取得することと、
前記第1のサンプルの第1の実際のサンプル結果を決定することと、
前記第1のサンプル予測結果と前記第1の実際のサンプル結果に基づいて前記第1の現在パラメータを調整することと、を含む、請求項8~11のいずれか一項に記載の方法。
Training a first predictive model utilizing the sample subjects in the first sample subset comprises:
determining a first current parameter of the first predictive model;
obtaining a first sample prediction result for the first sample object by processing at least one first sample feature of the first sample object using the first current parameter;
determining a first actual sample result of the first sample;
A method according to any one of claims 8 to 11, comprising adjusting the first current parameter based on the first sample prediction result and the first actual sample result.
前記第1のサンプル予測結果と前記第1の実際のサンプル結果に基づいて前記第1の現在パラメータを調整することは、
前記第1のサンプル予測結果と前記第1の実際のサンプル結果に基づいて第1の損失を決定することと、
前記第1の損失に基づいて前記第1の現在パラメータを調整することと、を含む、請求項12に記載の方法。
adjusting the first current parameter based on the first sample prediction result and the first actual sample result;
determining a first loss based on the first sample prediction result and the first actual sample result;
13. The method of claim 12, comprising: adjusting the first current parameter based on the first loss.
前記第1のサンプル予測結果と前記第1の実際のサンプル結果に基づいて第1の損失を決定することは、
前記第1のサンプル予測結果と前記第1の実際のサンプル結果との差異がトレーニング閾値より小さい時、第1の損失関数を利用して前記第1の損失を決定することと、
前記第1のサンプル予測結果と前記第1の実際のサンプル結果との差異がトレーニング閾値以上である時、第2の損失関数を利用して前記第1の損失を決定することと、を含む、請求項13に記載の方法。
Determining a first loss based on the first sample prediction result and the first actual sample result comprises:
determining the first loss using a first loss function when a difference between the first sample prediction result and the first actual sample result is less than a training threshold;
determining the first loss using a second loss function when a difference between the first sample prediction result and the first actual sample result is greater than or equal to a training threshold; 14. The method according to claim 13.
前記トレーニング閾値はトレーニング回数の増加に伴って減衰する、請求項14に記載の方法。 15. The method of claim 14, wherein the training threshold decays with increasing training frequency. 前記第1のサンプル予測結果と前記第1の実際のサンプル結果との差異が前記トレーニング閾値に等しい時、前記第1の損失関数によって決定された損失と前記第2の損失関数によって決定された損失は同じである、請求項14に記載の方法。 a loss determined by the first loss function and a loss determined by the second loss function when the difference between the first sample prediction result and the first actual sample result is equal to the training threshold; 15. The method of claim 14, wherein are the same. 前記第1の損失関数は、下式(1)で表され、
前記第2の損失関数は、下式(2)で表され、
ここで、f(x)は第1のサンプル予測結果を示し、yは第1の実際のサンプル結果を示し、βはトレーニング閾値を示す、請求項14に記載の方法。
The first loss function is expressed by the following formula (1),
The second loss function is expressed by the following formula (2),
15. The method of claim 14, where f(x) denotes a first sample prediction result, y denotes a first actual sample result, and β denotes a training threshold.
マルチタスクトレーニングフレームを利用して前記第1の予測モデルと前記第2の予測モデルに対するマルチタスクトレーニングを行うことにより、前記第1の予測モデルの最終パラメータと前記第2の予測モデルの最終パラメータを取得すること、を更に含む、請求項8に記載の方法。 By performing multitask training on the first predictive model and the second predictive model using a multitask training frame, the final parameters of the first predictive model and the final parameters of the second predictive model can be determined. 9. The method of claim 8, further comprising obtaining. データ処理装置であって、
被処理対象を決定するように構成される被処理対象決定ユニットと、
前記被処理対象の分類属性に基づいて前記被処理対象が所属する対象カテゴリを決定するように構成される対象カテゴリ決定ユニットと、
前記対象カテゴリに基づいて前記被処理対象に用いられる予測モデルを決定するように構成される予測モデル決定ユニットと、
前記予測モデルを利用して前記被処理対象の少なくとも一つの予測特徴を処理することにより、前記被処理対象の予測結果を取得するように構成される予測ユニットであって、ここで、前記予測結果と前記分類属性は同種の変数であるものと、を含む、データ処理装置。
A data processing device,
a target determining unit configured to determine a target;
a target category determination unit configured to determine a target category to which the processed object belongs based on a classification attribute of the processed object;
a predictive model determining unit configured to determine a predictive model to be used for the processed object based on the target category;
A prediction unit configured to obtain a prediction result of the processed object by processing at least one prediction feature of the processed object using the prediction model, wherein the prediction result is and the classification attributes are variables of the same type.
予測モデルをトレーニングするための装置であって、
複数のサンプル対象を含むサンプルセットを決定するように構成されるサンプル決定ユニットと、
前記サンプル対象の分類属性に基づいてサンプルセットにおける第1のサンプルサブセットと第2のサンプルサブセットを決定するように構成される分類ユニットと、
第1のサンプルサブセットにおける第1のサンプル対象を利用して第1の予測モデルをトレーニングするように構成される第1の予測モデルトレーニングユニットと、
第2のサンプルサブセットにおける第2のサンプル対象を利用して第2の予測モデルをトレーニングするように構成される第2の予測モデルトレーニングユニットと、を含み、
ここで、前記第1の予測モデルと第2の予測モデルは、被処理対象の少なくとも一つの予測特徴を処理することにより、被処理対象の予測結果を取得するために用いられ、前記予測結果と前記分類属性は同種の変数である、予測モデルをトレーニングするための装置。
An apparatus for training a predictive model, the apparatus comprising:
a sample determining unit configured to determine a sample set including a plurality of sample objects;
a classification unit configured to determine a first sample subset and a second sample subset in a sample set based on classification attributes of the sample objects;
a first predictive model training unit configured to utilize a first sample object in a first sample subset to train a first predictive model;
a second predictive model training unit configured to utilize a second sample object in the second sample subset to train a second predictive model;
Here, the first prediction model and the second prediction model are used to obtain a prediction result of the object to be processed by processing at least one prediction feature of the object to be processed, and the first prediction model and the second prediction model are used to obtain a prediction result of the object to be processed, and An apparatus for training a predictive model, wherein the classification attributes are homogeneous variables.
電子機器であって、
少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサに通信接続されたメモリとを含み、ここで、
前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも一つのプロセッサによって実行されることにより、前記少なくとも一つのプロセッサに請求項1~18のいずれか一項に記載の方法を実行させることができる、電子機器。
An electronic device,
at least one processor;
a memory communicatively coupled to the at least one processor, wherein:
The memory stores instructions executable by the at least one processor, and when executed by the at least one processor, the instructions cause the at least one processor to execute any one of claims 1 to 18. An electronic device capable of carrying out the method set forth in item 1.
コンピュータに請求項1~18のいずれか一項に記載の方法を実行させるためのコンピュータ命令が記憶された非一時的コンピュータ可読記憶媒体。 A non-transitory computer-readable storage medium having stored thereon computer instructions for causing a computer to perform a method according to any one of claims 1 to 18. プロセッサによって実行されると、請求項1~18のいずれか一項に記載の方法を実現するコンピュータプログラムを含むコンピュータプログラム製品。
A computer program product comprising a computer program that, when executed by a processor, implements the method according to any one of claims 1 to 18.
JP2022581432A 2022-01-25 2022-07-26 Data processing method and method for training a predictive model - Patents.com Active JP7535139B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202210088356.XA CN114443896B (en) 2022-01-25 2022-01-25 Data processing method and method for training predictive model
CN202210088356.X 2022-01-25
PCT/CN2022/107883 WO2023142408A1 (en) 2022-01-25 2022-07-26 Data processing method and method for training prediction model

Publications (2)

Publication Number Publication Date
JP2024507602A true JP2024507602A (en) 2024-02-21
JP7535139B2 JP7535139B2 (en) 2024-08-15

Family

ID=81369719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022581432A Active JP7535139B2 (en) 2022-01-25 2022-07-26 Data processing method and method for training a predictive model - Patents.com

Country Status (3)

Country Link
JP (1) JP7535139B2 (en)
CN (1) CN114443896B (en)
WO (1) WO2023142408A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114443896B (en) * 2022-01-25 2023-09-15 百度在线网络技术(北京)有限公司 Data processing method and method for training predictive model

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103744928B (en) * 2013-12-30 2017-10-03 北京理工大学 A kind of network video classification method based on history access record
CN104657468B (en) * 2015-02-12 2018-07-31 中国科学院自动化研究所 The rapid classification method of video based on image and text
CN106331778B (en) * 2015-07-06 2020-08-14 腾讯科技(深圳)有限公司 Video recommendation method and device
CN110532996B (en) * 2017-09-15 2021-01-22 腾讯科技(深圳)有限公司 Video classification method, information processing method and server
CN110431570A (en) 2018-02-26 2019-11-08 株式会社日立信息通信工程 Status predication device and status predication control method
US20200134734A1 (en) * 2018-10-26 2020-04-30 Cover Financial, Inc. Deep learning artificial intelligence for object classification
CN111753863A (en) * 2019-04-12 2020-10-09 北京京东尚科信息技术有限公司 Image classification method and device, electronic equipment and storage medium
US20220230096A1 (en) 2019-06-11 2022-07-21 Sony Group Corporation Information processing method, information processing device, and program
DE102019213547A1 (en) * 2019-09-05 2021-03-11 Robert Bosch Gmbh Device and method for training a model and vehicle
CN111353631A (en) * 2019-11-26 2020-06-30 国网山东省电力公司电力科学研究院 Thermal power plant condenser vacuum degree prediction method based on multilayer LSTM
CN111523575B (en) * 2020-04-13 2023-12-12 中南大学 Short video recommendation method based on short video multi-mode characteristics
CN111428008B (en) * 2020-06-11 2020-09-29 北京百度网讯科技有限公司 Method, apparatus, device and storage medium for training a model
CN111738441B (en) * 2020-07-31 2020-11-17 支付宝(杭州)信息技术有限公司 Prediction model training method and device considering prediction precision and privacy protection
CN111898744A (en) * 2020-08-10 2020-11-06 维森视觉丹阳有限公司 TDLAS trace gas concentration detection method based on pooled LSTM
CN113569129A (en) * 2021-02-02 2021-10-29 腾讯科技(深圳)有限公司 Click rate prediction model processing method, content recommendation method, device and equipment
CN113221689B (en) * 2021-04-27 2022-07-29 苏州工业职业技术学院 Video multi-target emotion degree prediction method
CN113065614B (en) * 2021-06-01 2021-08-31 北京百度网讯科技有限公司 Training method of classification model and method for classifying target object
CN113554180B (en) * 2021-06-30 2022-05-31 北京百度网讯科技有限公司 Information prediction method, information prediction device, electronic equipment and storage medium
CN113821682B (en) * 2021-09-27 2023-11-28 深圳市广联智通科技有限公司 Multi-target video recommendation method, device and storage medium based on deep learning
CN113723378B (en) * 2021-11-02 2022-02-08 腾讯科技(深圳)有限公司 Model training method and device, computer equipment and storage medium
CN114443896B (en) * 2022-01-25 2023-09-15 百度在线网络技术(北京)有限公司 Data processing method and method for training predictive model

Also Published As

Publication number Publication date
CN114443896B (en) 2023-09-15
CN114443896A (en) 2022-05-06
WO2023142408A1 (en) 2023-08-03
JP7535139B2 (en) 2024-08-15

Similar Documents

Publication Publication Date Title
CN113807440B (en) Method, apparatus, and medium for processing multimodal data using neural networks
CN114648638B (en) Training method of semantic segmentation model, semantic segmentation method and device
CN116306862B (en) Training method, device and medium for text processing neural network
CN113642740A (en) Model training method and device, electronic device and medium
CN114445667A (en) Image detection method and method for training image detection model
CN114791982B (en) Object recommendation method and device
CN113642635B (en) Model training method and device, electronic equipment and medium
JP7535139B2 (en) Data processing method and method for training a predictive model - Patents.com
CN114443989A (en) Ranking method, training method and device of ranking model, electronic equipment and medium
CN117351330A (en) Image processing method, training method, device and equipment of image processing model
CN116450944A (en) Resource recommendation method and device based on recommendation model, electronic equipment and medium
CN115600646B (en) Language model training method, device, medium and equipment
CN114219046B (en) Model training method, matching method, device, system, electronic equipment and medium
CN115578501A (en) Image processing method, image processing device, electronic equipment and storage medium
CN113722594B (en) Training method and device of recommendation model, electronic equipment and medium
CN114692780A (en) Entity information classification method, classification model training method, device and electronic equipment
CN114429678A (en) Model training method and device, electronic device and medium
CN114881170A (en) Training method of neural network for conversation task and conversation task processing method
CN114120416A (en) Model training method and device, electronic equipment and medium
CN116070711B (en) Data processing method, device, electronic equipment and storage medium
CN115033782B (en) Object recommendation method, training method, device and equipment of machine learning model
CN115879468B (en) Text element extraction method, device and equipment based on natural language understanding
CN117669667A (en) Training method, device and equipment for model for executing target task
CN115100461A (en) Image classification model training method and device, electronic equipment and medium
CN114169440A (en) Model training method, data processing method, device, electronic device and medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240802

R150 Certificate of patent or registration of utility model

Ref document number: 7535139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150