JP2019513246A - Training method of random forest model, electronic device and storage medium - Google Patents

Training method of random forest model, electronic device and storage medium Download PDF

Info

Publication number
JP2019513246A
JP2019513246A JP2018530893A JP2018530893A JP2019513246A JP 2019513246 A JP2019513246 A JP 2019513246A JP 2018530893 A JP2018530893 A JP 2018530893A JP 2018530893 A JP2018530893 A JP 2018530893A JP 2019513246 A JP2019513246 A JP 2019513246A
Authority
JP
Japan
Prior art keywords
training
model
random forest
forest model
reconstruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018530893A
Other languages
Japanese (ja)
Other versions
JP6587330B2 (en
Inventor
戈 金
戈 金
亮 徐
亮 徐
京 肖
京 肖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Publication of JP2019513246A publication Critical patent/JP2019513246A/en
Application granted granted Critical
Publication of JP6587330B2 publication Critical patent/JP6587330B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/103Workflow collaboration or project management

Abstract

本発明は、ランダムフォレストモデルの訓練方法、電子装置及び記憶媒体に関する。前記ランダムフォレストモデルの訓練方法は、モデル訓練制御システムがモデル訓練を行うための条件を満たしたか否かを分析することと、モデル訓練を行うための条件を満たした場合、ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを決定することと、前記ランダムフォレストモデルに対して再構成的訓練を行う必要がある場合、サンプルデータを用いて前記ランダムフォレストモデルに対して再構成的訓練を行うことと、前記ランダムフォレストモデルに対して再構成的訓練を行う必要がない場合、サンプルデータを用いて前記ランダムフォレストモデルに対して補正的訓練を行うことと、を含む。本発明は、ランダムフォレストモデルの訓練の回数を減らし、システムの負荷を軽減し、システムの効率を高めることができる。The present invention relates to a random forest model training method, an electronic device, and a storage medium. The training method of the random forest model is to analyze whether the model training control system satisfies the condition for performing the model training and to the random forest model when the condition for performing the model training is satisfied. If it is necessary to determine whether or not reconstruction training needs to be performed, and if it is necessary to perform reconstruction training on the random forest model, reconstruction on the random forest model using sample data is performed. Training, and performing corrective training on the random forest model using sample data, if it is not necessary to perform reconstruction training on the random forest model. The present invention can reduce the number of training of the random forest model, reduce the load on the system, and increase the efficiency of the system.

Description

「関連出願の相互参照」
本願は、パリ条約に基づき、2017年3月13日に中国国家知識産権局に出願された、中国特許出願第2017101476983号の「ランダムフォレストモデルの訓練方法及びモデル訓練制御システム」と題する中国特許出願の優先権を主張し、当該出願の全体が参照により本願に援用される。
"Cross-reference to related applications"
The present application is based on the Paris Convention and applied to the State Intellectual Property Office of China on March 13, 2017, under the Chinese Patent Application No. 2017101476983 entitled "Chinese Forest Patent Training Method and Model Training Control System". The priority of the application is claimed, and the entire application is incorporated herein by reference.

本発明は、機械学習の技術分野に関し、詳しく言えば、ランダムフォレストモデルの訓練方法、電子装置及び記憶媒体に関するものである。   The present invention relates to the technical field of machine learning, and more particularly, to a random forest model training method, an electronic apparatus, and a storage medium.

機械学習におけるランダムフォレストは、多数の決定木を用いてサンプルデータを訓練して予測を行う、複数の決定木を含む分類器であり、決定木とは、一連のルールによりデータを分類するプロセスを指す。現状では、オンラインサービス(例えば、遠隔保険加入、遠隔損害賠償請求、オンライン資産運用など)を提供する企業の多くは、すでにサービスシステムにランダムフォレストを導入しており、分類ラベルによるユーザの認識を行い、認識結果に基づき、ターゲットを絞ったサービス提示及び処理を行っている。   A random forest in machine learning is a classifier including multiple decision trees, which trains and predicts sample data using a large number of decision trees, and a decision tree is a process of classifying data according to a series of rules. Point to. Currently, many companies that offer online services (eg, remote insurance coverage, remote damages claims, online asset management, etc.) have already introduced random forests in their service systems, and identified users by classification labels. , Based on the recognition results, targeted service presentation and processing.

しかしながら、モデルの認識精度を高めるための反復練習にはサンプルデータが新たに提供される場合、従来の技術的解決手段では、既存のサンプルデータ及び新たなサンプルデータを同時に用いて、ランダムフォレストモデルの再構成的訓練を再度行うようにしている。再構成的訓練とは、ランダムフォレストモデルにおける決定木の構造を変更させるための訓練を指す。このような訓練方法は、一般的に、新たなサンプルデータが提供されると、再構成的訓練を実行するものであり、そのため、訓練の回数が多く、特にオンラインサービスにデータの変更が頻繁に行われる状況においては、訓練が頻繁に行われると、システムの負荷が大きくなり、その結果、オンラインサービスシステムの効率及びオンラインサービスの進行に影響が出ているのが現状である。   However, when sample data is newly provided for repetitive training to improve model recognition accuracy, the conventional technical solution simultaneously uses the existing sample data and the new sample data to generate the random forest model. We are trying to carry out the reconstruction training again. Reconstruction training refers to training for changing the structure of a decision tree in a random forest model. Such training methods generally perform reconstruction training when new sample data are provided, so the number of trainings is large, and data changes are particularly frequent in online services. In the situation where it is carried out, if the training is carried out frequently, the load on the system is increased, and as a result, the efficiency of the online service system and the progress of the online service are affected.

本発明は、ランダムフォレストモデルの訓練の回数を減らし、システムの負荷を軽減し、システムの効率を高めるために、ランダムフォレストモデルの訓練方法、電子装置及び記憶媒体を提供することを目的とする。   An object of the present invention is to provide a training method, an electronic device and a storage medium of a random forest model in order to reduce the number of times of training of the random forest model, reduce the load on the system and improve the efficiency of the system.

本発明の第1の態様は、ランダムフォレストモデルの訓練方法を提供し、
前記方法は、
モデル訓練制御システムによってモデル訓練を行うための条件を満たしたか否かを分析するステップS1と、
モデル訓練を行うための条件を満たした場合、ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを決定するステップS2と、
前記ランダムフォレストモデルに対して再構成的訓練を行う必要がある場合、サンプルデータを用いて前記ランダムフォレストモデルに対して再構成的訓練を行うステップS3と、
前記ランダムフォレストモデルに対して再構成的訓練を行う必要がない場合、サンプルデータを用いて前記ランダムフォレストモデルに対して補正的訓練を行うステップS4と、
を含む。
A first aspect of the present invention provides a training method of random forest model,
The method is
Analyzing whether a condition for performing model training is satisfied by the model training control system;
Step S2 of determining whether the random forest model needs to be subjected to the reconstruction training if the condition for performing the model training is satisfied;
Performing reconstruction training on the random forest model using sample data when reconstruction training needs to be performed on the random forest model;
Performing corrective training on the random forest model using sample data, if it is not necessary to perform reconstruction training on the random forest model;
including.

本発明の第2の態様は、電子装置を提供し、
前記電子装置は、
処理機器と、記憶機器と、モデル訓練制御システムとを含み、
前記モデル訓練制御システムは、前記記憶機器に記憶されており、少なくとも1つのコンピュータ読み取り可能なコマンドを含み、
前記少なくとも1つのコンピュータ読み取り可能なコマンドを前記処理機器が実行することで、
モデル訓練制御システムによってモデル訓練を行うための条件を満たしたか否かを分析するステップS1と、
モデル訓練を行うための条件を満たした場合、ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを決定するステップS2と、
前記ランダムフォレストモデルに対して再構成的訓練を行う必要がある場合、サンプルデータを用いて前記ランダムフォレストモデルに対して再構成的訓練を行うステップS3と、
前記ランダムフォレストモデルに対して再構成的訓練を行う必要がない場合、サンプルデータを用いて前記ランダムフォレストモデルに対して補正的訓練を行うステップS4と、
を実現できる。
A second aspect of the invention provides an electronic device,
The electronic device is
Processing equipment, storage equipment and model training control system,
The model training control system is stored in the storage device and includes at least one computer readable command;
The processing device executing the at least one computer readable command,
Analyzing whether a condition for performing model training is satisfied by the model training control system;
Step S2 of determining whether the random forest model needs to be subjected to the reconstruction training if the condition for performing the model training is satisfied;
Performing reconstruction training on the random forest model using sample data when reconstruction training needs to be performed on the random forest model;
Performing corrective training on the random forest model using sample data, if it is not necessary to perform reconstruction training on the random forest model;
Can be realized.

本発明の第3の態様は、コンピュータ読み取り可能な記憶媒体を提供し、
前記記憶媒体に少なくとも1つのコンピュータ読み取り可能なコマンドが記憶されており、
前記少なくとも1つのコンピュータ読み取り可能なコマンドを処理機器が実行することで、
モデル訓練制御システムによってモデル訓練を行うための条件を満たしたか否かを分析するステップS1と、
モデル訓練を行うための条件を満たした場合、ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを決定するステップS2と、
前記ランダムフォレストモデルに対して再構成的訓練を行う必要がある場合、サンプルデータを用いて前記ランダムフォレストモデルに対して再構成的訓練を行うステップS3と、
前記ランダムフォレストモデルに対して再構成的訓練を行う必要がない場合、サンプルデータを用いて前記ランダムフォレストモデルに対して補正的訓練を行うステップS4と、
を実現できる。
A third aspect of the present invention provides a computer readable storage medium,
At least one computer readable command is stored on the storage medium;
A processing device executing the at least one computer readable command;
Analyzing whether a condition for performing model training is satisfied by the model training control system;
Step S2 of determining whether the random forest model needs to be subjected to the reconstruction training if the condition for performing the model training is satisfied;
Performing reconstruction training on the random forest model using sample data when reconstruction training needs to be performed on the random forest model;
Performing corrective training on the random forest model using sample data, if it is not necessary to perform reconstruction training on the random forest model;
Can be realized.

本発明は、ランダムフォレストモデルを用いて、オンラインサービスを利用するユーザについて分類する際、ランダムフォレストモデル訓練を行うための条件を設定、又は限定することができ、これにより、オンラインサービスの進行に影響を与えないだけでなく、モデル訓練の回数を減らすとともに、モデル訓練のタイプを選択し、すなわち、モデル訓練を行うための条件を満たした場合、ランダムフォレストモデルに対して再構成的訓練を行うか、それとも補正的訓練を行うかを決定することで、ランダムフォレストモデルの訓練を選択的に行うことができ、これにより、システムの負荷を大幅に軽減し、オンラインサービスシステムの効率を高め、オンラインサービスを効率よく進めることができる。   The present invention can set or limit conditions for performing random forest model training when classifying users using online service by using a random forest model, which affects the progress of online service. In addition to reducing the number of model trainings as well as not giving them a model training type, ie, if the conditions for performing model training are met, do you do the reconstruction training for the random forest model? By deciding whether to perform training or corrective training, it is possible to selectively train the random forest model, which greatly reduces the load on the system, increases the efficiency of the online service system, and improves the online service. Can proceed efficiently.

本発明によるランダムフォレストモデルの訓練方法の好ましい実施例を実現する環境を示す図である。FIG. 1 illustrates an environment for implementing a preferred embodiment of the random forest model training method according to the present invention. 本発明によるランダムフォレストモデルの訓練方法の好ましい実施例のフローチャートである。5 is a flow chart of a preferred embodiment of a method of training a random forest model according to the present invention. 図2におけるステップS4の詳細的なフローチャートである。It is a detailed flowchart of step S4 in FIG. 本発明によるモデル訓練制御システムの好ましい実施例の概略構造図である。1 is a schematic structural diagram of a preferred embodiment of a model training control system according to the present invention. 図4における第2の訓練モジュールの概略構造図である。FIG. 5 is a schematic structural view of a second training module in FIG. 4;

以下にて実施例及び図面を踏まえて、本発明の原理及び特徴を説明するが、挙げられる実施例は、本発明を説明するためのものに過ぎず、本発明を限定するためではないことは自明である。   The principles and features of the present invention will be described based on the examples and drawings as follows, but the listed examples are only for explaining the present invention and not for limiting the present invention. It is self-explanatory.

図1は、本発明によるランダムフォレストモデルの訓練方法の好ましい実施例を実現する環境であり、図1によると、前記環境は、電子装置1と、端末機器2とを含む。このうち、電子装置1は、ネットワークや近距離通信技術などの適切な技術により端末機器2とデータ交換を行うことができる。   FIG. 1 is an environment for implementing a preferred embodiment of a training method of random forest model according to the present invention, according to FIG. 1, said environment comprises an electronic device 1 and a terminal equipment 2. Among them, the electronic device 1 can exchange data with the terminal device 2 by an appropriate technology such as a network or short distance communication technology.

端末機器2は、キーボード、マウス、リモートコントローラ、タッチパネル、又は音声制御機器などの手段により、ユーザとマンマシンインタラクションを行うことができる任意の電子製品、例えば、PC、タブレットPC、スマートフォン、パーソナルデジタルアシスタント(Personal Digital Assistant、PDA)、ゲーム機、インターネットプロトコル放送テレビ(Internet Protocol Television、IPTV)、ウェアラブル端末などを含むが、これらに限定されない。   The terminal device 2 is any electronic product that can perform man-machine interaction with the user by means of a keyboard, a mouse, a remote controller, a touch panel, or a voice control device, for example, a PC, a tablet PC, a smartphone, a personal digital assistant (Personal Digital Assistant, PDA), game console, Internet Protocol Television (IPTV), wearable terminal, etc., but not limited thereto.

電子装置1は、例えば、予め設定された又は記憶されているコマンドに従って、数値計算及び/又は情報処理を自動的に行うことができる機器である。電子装置1には、コンピュータ、又は単一のネットワークサーバ、複数のネットワークサーバからなるサーバ群、もしくはクラウドコンピューティングに基づく大量のホストやネットワークサーバからなるクラウド型機器が挙げられ、クラウドコンピューティングとは、分散コンピューティングの一種であり、疎結合されている複数のコンピュータクラスターからなる大型仮想コンピュータを指すものである。   The electronic device 1 is a device capable of automatically performing numerical calculation and / or information processing in accordance with, for example, a preset or stored command. Examples of the electronic device 1 include a computer, a single network server, a server group including a plurality of network servers, or a cloud-type device including a large number of hosts and network servers based on cloud computing, and cloud computing , A kind of distributed computing, which refers to a large virtual computer consisting of a plurality of loosely coupled computer clusters.

本実施例では、電子装置1が、相互に通信できるようにシステムバスによって接続された記憶機器11と、処理機器12と、ネットワークインタフェース13とを含むが、これらに限定されない。図1は部品11と、部品12と、部品13とを備えた電子装置1を示しているが、必ずしも示された全ての部品で実施するとは限らず、代替案として、より多い又はより少ない部品で実施してもよい。   In the present embodiment, the electronic device 1 includes, but is not limited to, the storage device 11, the processing device 12, and the network interface 13 connected by the system bus so as to communicate with each other. FIG. 1 shows an electronic device 1 comprising a part 11, a part 12 and a part 13, but not necessarily all the parts shown, more or less as an alternative It may be implemented in

このうち、記憶機器11は、メモリと、少なくとも1つのタイプの読み取り可能な記憶媒体とを含む。メモリは、電子装置1の動作時にキャッシュを提供し、読み取り可能な記憶媒体は、例えば、フラッシュメモリ、ハードディスク、マルチメディアカード、カード型メモリなどの不揮発性記憶媒体である。いくつかの実施例では、読み取り可能な記憶媒体が電子装置1の内部記憶手段、例えば、電子装置1のハードディスクであり、別の実施例では、前記不揮発性記憶媒体が、電子装置1の外部記憶機器、例えば、電子装置1に搭載された外付けハードディスク、スマートメディアカード(Smart Media(登録商標) Card、SMC)、セキュアデジタル(Secure Digital、SD)カード、フラッシュカード(Flash Card)などである。本実施例では、記憶機器11の読み取り可能な記憶媒体が一般的に、電子装置1にインストールされるオペレーティングシステム及び各種アプリケーションソフトウェア、例えば、本発明の好ましい実施例におけるモデル訓練制御システム10のプログラムコードなどを記憶することに用いられる。記憶機器11は、すでに出力された又は出力する各種データを一時的に記憶することにも用いられる。   Of these, the storage device 11 includes a memory and at least one type of readable storage medium. The memory provides a cache when the electronic device 1 operates, and the readable storage medium is, for example, a non-volatile storage medium such as a flash memory, a hard disk, a multimedia card, and a card type memory. In some embodiments, the readable storage medium is the internal storage means of the electronic device 1, for example the hard disk of the electronic device 1, and in another embodiment the non-volatile storage medium is external storage of the electronic device 1. For example, an external hard disk mounted on the electronic device 1, a smart media card (Smart Media (registered trademark) Card, SMC), a Secure Digital (SD) card, a flash card (Flash Card), or the like. In the present embodiment, an operating system and various application software in which a readable storage medium of the storage device 11 is generally installed in the electronic device 1, for example, a program code of the model training control system 10 in a preferred embodiment of the present invention. It is used to memorize etc. The storage device 11 is also used to temporarily store various data that has already been output or is output.

いくつかの実施例では、処理機器12が、1つ又は複数のマイクロプロセッサと、マイクロコントローラと、デジタルプロセッサなどを含んでもよい。処理機器12は、一般的に、電子装置1の動作、例えば、端末機器2とのデータ交換又は通信に関連する制御及び処理などの実行を制御することに用いられる。本実施例では、処理機器12が、記憶機器11に記憶されているプログラムコードを実行し又はデータを処理し、例えば、モデル訓練制御システム10などを実行することに用いられる。   In some embodiments, processing device 12 may include one or more microprocessors, microcontrollers, digital processors, and the like. The processing device 12 is generally used to control the execution of the operation of the electronic device 1, eg, control and processing associated with data exchange or communication with the terminal device 2. In the present embodiment, the processing device 12 executes program code stored in the storage device 11 or processes data, and is used, for example, to execute the model training control system 10 or the like.

ネットワークインタフェース13は、無線ネットワークインタフェース又は有線ネットワークインタフェースを含んでもよく、ネットワークインタフェース13は、一般的に、電子装置1とその他の電子機器との間に通信接続を確立することに用いられる。本実施例では、ネットワークインタフェース13は、主に電子装置1と1つ又は複数の端末機器2を接続させることで、電子装置1と1つ又は複数の端末機器2との間にデータ伝送チャネル及び通信接続を確立することに用いられる。   The network interface 13 may include a wireless network interface or a wired network interface, and the network interface 13 is generally used to establish a communication connection between the electronic device 1 and other electronic devices. In the present embodiment, the network interface 13 mainly connects the electronic device 1 and one or more terminal devices 2 to connect a data transmission channel between the electronic device 1 and one or more terminal devices 2. Used to establish a communication connection.

モデル訓練制御システム10は、記憶機器11に記憶されている少なくとも1つのコンピュータ読み取り可能なコマンドを含み、前記少なくとも1つのコンピュータ読み取り可能なコマンドを処理機器12が実行することで、本発明の各実施例によるランダムフォレストモデルの訓練方法を実現できる。以下の記載から分かるように、前記少なくとも1つのコンピュータ読み取り可能なコマンドは、その各部分が実現する機能の違いにより、異なる論理モジュールに分けられてもよい。   The model training control system 10 includes at least one computer readable command stored in the storage device 11, and the processing device 12 executes the at least one computer readable command to implement each embodiment of the present invention. The training method of random forest model by example can be realized. As will be understood from the following description, the at least one computer readable command may be divided into different logic modules according to the difference in the function implemented by each part.

一実施例では、モデル訓練制御システム10を処理機器12が実行する際、モデル訓練制御システムは、モデル訓練を行うための条件を満たしたか否かを分析する動作と、モデル訓練を行うための条件を満たした場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを決定する動作と、前記ランダムフォレストモデルに対して再構成的訓練を行う必要がある場合、サンプルデータを用いて前記ランダムフォレストモデルに対して再構成的訓練を行う動作と、前記ランダムフォレストモデルに対して再構成的訓練を行う必要がない場合、サンプルデータを用いて前記ランダムフォレストモデルに対して補正的訓練を行う動作と、を実現する。   In one embodiment, when the processing device 12 executes the model training control system 10, the model training control system analyzes the operation for satisfying the condition for performing the model training and the condition for performing the model training. If it is necessary to determine whether or not it is necessary to carry out the reconstruction training on the random forest model, and if it is necessary to carry out the reconstruction training on the random forest model, sample data Using the sample data to perform reconstruction training on the random forest model, and using the sample data to correct the random forest model if reconstruction training does not need to be performed on the random forest model And the action of performing

図2は、本発明によるランダムフォレストモデルの訓練方法の好ましい実施例のフローチャートを示しており、図2によると、本実施例のランダムフォレストモデルの訓練方法は、図2のフローチャートにおけるステップに限定されず、また、図2のフローチャートのステップの一部を省略したり、ステップの順序を変更させたりしてもよい。前記ランダムフォレストモデルの訓練方法は、ステップS1と、ステップS2と、ステップS3と、ステップS4とを含む。   FIG. 2 shows a flowchart of a preferred embodiment of the training method of random forest model according to the present invention, and according to FIG. 2, the training method of random forest model of this embodiment is limited to the steps in the flowchart of FIG. Alternatively, some of the steps in the flowchart of FIG. 2 may be omitted, or the order of the steps may be changed. The training method of the random forest model includes steps S1, S2, S3, and S4.

ステップS1:モデル訓練制御システムによって、モデル訓練を行うための条件を満たしたか否かを分析する。   Step S1: A model training control system analyzes whether the conditions for performing model training are satisfied.

モデル訓練は、再構成的訓練及び補正的訓練を含む。モデル訓練を行うための条件は、モデル訓練制御システムにおいて手動で柔軟的に設定し、又はモデル訓練制御システムに予め設定されたデフォルト条件を適用することができる。   Model training includes reconstructive training and corrective training. The conditions for performing model training can be manually set flexibly in the model training control system, or default conditions preset in the model training control system can be applied.

オンラインサービスの場合、モデル訓練を行うための条件は、ユーザのサービスデータを基準とし(例えば、ユーザのサービスデータが所定の数量に達するとモデル訓練を行う)、又は実際のニーズを基準とし(例えば、モデル訓練制御システムの操作者が実際のニーズに応じてモデル訓練制御システムにモデル訓練実行コマンドを送信することにより、モデル訓練を行う)、又はタイマにより計時し、1回のモデル訓練が終了した後に、所定の時間が経過するごとにランダムフォレストモデルに対して訓練を行うなどとする。   In the case of on-line services, the conditions for performing model training are based on the user's service data (e.g. performing a model training when the user's service data reaches a predetermined quantity) or based on the actual needs (e.g. , The model training control system operator performs model training by transmitting a model training execution command to the model training control system according to the actual needs, or clocking with a timer, and one model training is completed. Later, training is performed on the random forest model each time a predetermined time elapses.

好ましくは、モデル訓練を行うための条件を満たしたか否かを分析する際、
サービスシステムにおける前回のモデル訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第1の数量(例えば、第1の数量を200人のユーザのサービスデータの数量とする)を取得し、前記第1の数量が第1の所定閾値を超えた場合、モデル訓練を行うための条件を満たしたとし(再構成的訓練又は補正的訓練を行うことができる)、前記第1の数量が第1の所定閾値以下の場合、モデル訓練を行うための条件を満たさないとし(再構成的訓練又は補正的訓練を行わない)、
又は、モデル訓練コマンドを受信したか否かをリアルタイムにもしくは定時的に(例えば、10分間ごとに)検出し、例えば、モデル訓練制御システムの操作者がシステムにログインし、モデル訓練の操作画面に入って、モデル訓練の操作画面上の「モデル訓練」ボタンをクリックし又はトリガさせることにより、モデル訓練コマンドを発信し、モデル訓練制御システムがモデル訓練コマンドを受信すると、モデル訓練を行うための条件を満たしたとし(再構成的訓練又は補正的訓練を行うことができる)、モデル訓練コマンドを受信しなかった場合、モデル訓練を行うための条件を満たさないとする(再構成的訓練又は補正的訓練を行わない)。
Preferably, when analyzing whether the conditions for performing model training have been met,
The first quantity of service data of the user newly added in the period from the end of the last model training in the service system to the present time (for example, let the first quantity be the quantity of service data of 200 users) If the first quantity exceeds a first predetermined threshold, it is determined that the condition for performing model training is satisfied (reconstructional training or corrective training can be performed); And the condition for performing model training is not satisfied (reconstructive training or corrective training is not performed) if the number of
Alternatively, whether or not the model training command has been received is detected in real time or on a regular basis (for example, every 10 minutes), for example, the operator of the model training control system logs in to the system and operates on the model training operation screen. Incoming conditions for transmitting model training commands by clicking or triggering the “Model training” button on the model training operation screen, and for performing model training when the model training control system receives model training commands If the model training command is not received, the condition for performing model training is not satisfied (reconstruction training or correction training). Do not do training).

ステップS2:モデル訓練を行うための条件を満たした場合、ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを決定する。   Step S2: If the conditions for performing model training are satisfied, it is determined whether or not it is necessary to perform a reconstruction training on the random forest model.

モデル訓練を行うための条件を満たした場合、ランダムフォレストモデルに対して再構成的訓練を行うか、それとも補正的訓練を行うかを決定する。このうち、ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを決定することは、2回の再構成的訓練の間におけるユーザのサービスデータを基準とし(例えば、2回の再構成的訓練の間におけるユーザのサービスデータが所定の数量を超えると再構成的訓練を行う)、又は実際のニーズを基準とする(例えば、モデル訓練制御システムの操作者が実際のニーズに応じてモデル訓練制御システムに再構成的訓練実行コマンドを送信することにより、再構成的訓練を行う)などとする。   If the conditions for performing model training are satisfied, it is determined whether to perform reconstruction training or corrective training on a random forest model. Among these, determining whether or not the random forest model needs to be subjected to the reconstruction training is based on the service data of the user between the two reconstruction trainings (for example, twice). Based on the actual needs (for example, the operator of the model training control system responds to the actual needs), if the service data of the user during the reconstruction training exceeds the predetermined quantity, the reconstruction training is performed) Then, the model training control system transmits reconfiguration training execution command to perform reconfiguration training) and the like.

好ましくは、ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを決定する際、
サービスシステムにおける前回の再構成的訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第2の数量(例えば、第2の数量を500人のユーザのサービスデータの数量とする)を取得し、前記第2の数量が第2の所定閾値を超えた場合、ランダムフォレストモデルに対して再構成的訓練を行う必要があるとし、前記第2の数量が第1の所定閾値超え第2の閾値未満の場合、前記ランダムフォレストモデルに対して補正的訓練を行い、
又は、所定の端末(例えば、携帯電話、タブレットPC、コンピュータなど好適な電子端末)にランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを問い合わせるリクエストを送信し、例えば、モデル訓練の操作画面に入って「モデル訓練」コマンドを発信した後、モデル訓練制御システムが、所定の端末に再構成的訓練を行うか否かを問い合わせる情報を送信し、端末から前記問い合わせリクエストに応じてフィードバックされた確認コマンドを受信した場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるとし、端末から前記問い合わせリクエストに応じてフィードバックされた否定コマンドを受信した又は所定の時間(例えば、3分間)以内に端末からフィードバックを受信しなかった場合、前記ランダムフォレストモデルに対して補正的訓練を行う。
Preferably, when deciding whether or not the random forest model needs to be subjected to reconstruction training:
A second quantity of service data of the user newly added during the period from the end of the last reconstruction training in the service system to the current time (eg, the second quantity is the quantity of service data of 500 users) And if the second quantity exceeds a second predetermined threshold, it is considered necessary to perform reconstruction training on the random forest model, and the second quantity is a first predetermined threshold. Exceed the second threshold and perform corrective training on the random forest model,
Alternatively, it sends a request to a predetermined terminal (for example, a suitable electronic terminal such as a mobile phone, a tablet PC, a computer, etc.) as to whether or not it is necessary to perform reconfiguration training on the random forest model. After entering the training operation screen and transmitting a "model training" command, the model training control system transmits information inquiring whether or not to perform reconfiguration training on a predetermined terminal, and the terminal responds to the inquiry request from the terminal. When it is determined that the confirmation command that has been fed back is received, it is necessary to perform reconfiguration training on the random forest model, and a negative command that has been fed back from the terminal in response to the inquiry request is received or For example, when receiving no feedback from the terminal within 3 minutes) , A correction training with respect to the random forest model.

ステップS3:前記ランダムフォレストモデルに対して再構成的訓練を行う必要がある場合、サンプルデータを用いて前記ランダムフォレストモデルに対して再構成的訓練を行う。   Step S3: If it is necessary to carry out reconstruction training on the random forest model, conduct reconstruction training on the random forest model using sample data.

ステップS4:前記ランダムフォレストモデルに対して再構成的訓練を行う必要がない場合、サンプルデータを用いて前記ランダムフォレストモデルに対して補正的訓練を行う。   Step S4: If the random forest model does not need to be reconstructed, sample training data is used to perform corrective training on the random forest model.

本実施例では、サンプルデータは、既存のサンプルデータ及び新規追加されたサンプルデータを含む。再構成的訓練は、ランダムフォレストモデルの変数に対する確定的訓練及び変数の係数に対する確定的訓練を含み、補正的訓練は、ランダムフォレストモデルの変数の係数に対する確定的訓練のみを含む。このうち、ランダムフォレストモデルの変数は、例えば、アルゴリズムのタイプ、決定木の数量、決定木の最大の深さ、決定木のリーフとノードの各種のデータなどを含む。再構成的訓練に使用されるシステムリソースは、補正的訓練に用いるシステムリソースよりも多い。   In the present embodiment, the sample data includes existing sample data and newly added sample data. Reconstruction training includes deterministic training on variables of the random forest model and deterministic training on coefficients of the variables, and corrective training includes only deterministic training on coefficients of the variables of the random forest model. Among them, variables of the random forest model include, for example, the type of algorithm, the number of decision trees, the maximum depth of decision trees, and various data of leaves and nodes of decision trees. There are more system resources used for reconstructive training than system resources used for corrective training.

従来の技術と比べ、本実施例は、ランダムフォレストモデルを用いてオンラインサービスを利用するユーザについて分類する際、ランダムフォレストモデルに対して訓練を行うための条件を設定し又は限定することができ、オンラインサービスの進行に影響を与えないだけでなく、モデル訓練の回数を減らすとともに、モデル訓練のタイプを選択し、すなわち、モデル訓練を行うための条件を満たした場合、ランダムフォレストモデルに対して再構成的訓練を行うか、それとも補正的訓練を行うかを決定することで、ランダムフォレストモデルの訓練を選択的に行うことができ、これにより、システムの負荷を大幅に軽減し、オンラインサービスシステムの効率を高め、オンラインサービスを効率よく進めることができる。   Compared with the prior art, this embodiment can set or limit the conditions for training the random forest model when classifying the users who use the online service using the random forest model, Not only does it not affect the progress of online services, but it reduces the number of model trainings and selects the type of model training, that is, if the conditions for performing model training are met, the random forest model is re-created. By deciding whether to perform constitutive training or corrective training, it is possible to selectively train the random forest model, which greatly reduces the load on the system and allows the online service system to You can improve efficiency and promote online services efficiently.

一つの好ましい実施例では、図3に示すように、前記図2の実施例をベースに、前記ステップS4は、さらに、ステップS41とステップS42とを含む。   In one preferred embodiment, as shown in FIG. 3, based on the embodiment of FIG. 2, step S4 further includes steps S41 and S42.

ステップS41:所定のランダムフォレストモデルの変数と変数の係数の値の範囲とのマッピング関係に基づき、各前記変数に対応する変数の係数の値の範囲を特定する。   Step S41: The range of the coefficient value of the variable corresponding to each variable is specified based on the mapping relationship between the variable of the predetermined random forest model and the value range of the coefficient of the variable.

ステップS42:前記変数ごとに、対応する変数の係数の値の範囲から変数の係数の値を取得し、値を取得した変数の係数に基づき、前記ランダムフォレストモデルに対して補正的訓練を行う。   Step S42: The value of the coefficient of the variable is acquired from the range of the value of the coefficient of the corresponding variable for each of the variables, and the random forest model is subjected to corrective training based on the coefficient of the variable whose value is acquired.

本実施例では、ランダムフォレストモデルの変数と変数係数の値の範囲を、予め関連付けてマッピング関係を確立し、そして関連付けにより確立したマッピング関係を記憶してもよい(例えば、表の形式で記憶する)。ランダムフォレストモデルに対して訓練を行う前に、ランダムフォレストモデルの変数を決めた上で、記憶されている関連付けにより確立したマッピング関係を取得することで、対応する変数の係数の値の範囲を取得し、そして前記変数の係数の値を、得られた値の範囲に限定して取得することにより、モデル訓練の正確性を確保するとともに、ランダムフォレストモデルの各変数の係数の値を全数値範囲から取得して訓練を行うことを回避することで、モデル訓練の速度を効果的に速めることができる。   In this embodiment, the range of values of variables and variable coefficients of the random forest model may be associated in advance to establish a mapping relationship, and the mapping relationship established by the association may be stored (for example, stored in the form of a table) ). Before training on the random forest model, determine the variables of the random forest model, and obtain the mapping relationship established by the stored association, and obtain the value range of the coefficient of the corresponding variable The accuracy of model training is ensured by acquiring the values of the coefficients of the variables limited to the obtained range of values, and the values of the coefficients of each variable of the random forest model are in the entire numerical range By avoiding training from training, model training can be effectively speeded up.

図4は、本発明によるモデル訓練制御システム10の好ましい実施例の機能モジュールを示しており、図4によると、本実施例では、モデル訓練制御システム10は、1つ又は複数のモジュールに分けられ、前記1つ又は複数のモジュールがメモリに記憶されており、1つ又は複数の処理機器が実行することにより、本発明を実現する。例えば、図4によると、モデル訓練制御システム10が、検出モジュール21と、認識モジュール22と、複製モジュール23と、インストールモジュール24と、起動モジュール25とに分けられる。なお、本発明でいうモジュールは、特定の機能を実現するための一連のコンピュータプログラムコマンドブロックを指し、プログラム全体よりも、電子装置におけるモデル訓練制御システム10の実行プロセスの説明に好適である。   FIG. 4 shows functional modules of a preferred embodiment of a model training control system 10 according to the present invention, and according to FIG. 4, in this embodiment, the model training control system 10 is divided into one or more modules. The one or more modules are stored in a memory and implemented by one or more processing devices to implement the invention. For example, according to FIG. 4, the model training control system 10 is divided into a detection module 21, a recognition module 22, a replication module 23, an installation module 24, and an activation module 25. The module in the present invention indicates a series of computer program command blocks for realizing a specific function, and is more suitable for describing the execution process of the model training control system 10 in the electronic device than the whole program.

このうち、分析モジュール101は、モデル訓練を行うための条件を満たしたか否かを分析する。   Among these, the analysis module 101 analyzes whether conditions for performing model training are satisfied.

モデル訓練は、再構成的訓練及び補正的訓練を含む。モデル訓練を行うための条件は、モデル訓練制御システム10において手動で柔軟的に設定し、又はモデル訓練制御システムに予め設定されたデフォルト条件を適用することができる。   Model training includes reconstructive training and corrective training. The conditions for performing model training can be set manually in the model training control system 10 flexibly, or default conditions preset in the model training control system can be applied.

オンラインサービスの場合、モデル訓練を行うための条件は、ユーザのサービスデータを基準とし(例えば、ユーザのサービスデータが所定の数量に達するとモデル訓練を行う)、又は実際のニーズを基準とし(例えば、モデル訓練制御システムの操作者が実際のニーズに応じてモデル訓練制御システムにモデル訓練実行コマンドを送信することにより、モデル訓練を行う)、又はタイマにより計時し、1回のモデル訓練が終了した後に、所定の時間が経過するごとにランダムフォレストモデルに対して訓練を行うなどとする。   In the case of on-line services, the conditions for performing model training are based on the user's service data (e.g. performing a model training when the user's service data reaches a predetermined quantity) or based on the actual needs (e.g. , The model training control system operator performs model training by transmitting a model training execution command to the model training control system according to the actual needs, or clocking with a timer, and one model training is completed. Later, training is performed on the random forest model each time a predetermined time elapses.

好ましくは、具体的には、分析モジュール10が、サービスシステムにおける前回のモデル訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第1の数量(例えば、第1の数量を200人のユーザのサービスデータの数量とする)を取得し、前記第1の数量が第1の所定閾値を超えた場合、モデル訓練を行うための条件を満たしたとし(再構成的訓練又は補正的訓練を行うことができる)、前記第1の数量が第1の所定閾値以下の場合、モデル訓練を行うための条件を満たさないとし(再構成的訓練又は補正的訓練を行わない)、
又は、モデル訓練コマンドを受信したか否かをリアルタイムにもしくは定時的に(例えば、10分間ごとに)検出し、例えば、モデル訓練制御システムの操作者がシステムにログインし、モデル訓練の操作画面に入って、モデル訓練の操作画面上の「モデル訓練」ボタンをクリックし又はトリガさせることにより、モデル訓練コマンドを発信し、モデル訓練制御システムがモデル訓練コマンドを受信すると、モデル訓練を行うための条件を満たしたとし(再構成的訓練又は補正的訓練を行うことができる)、モデル訓練コマンドを受信しなかった場合、モデル訓練を行うための条件を満たさないとする(再構成的訓練又は補正的訓練を行わない)。
Preferably, specifically, the analysis module 10 is configured to calculate a first quantity (eg, a first quantity) of service data of a user newly added in a period from the time when the previous model training in the service system is finished to the present time. And the number of service data of 200 users), and if the first quantity exceeds a first predetermined threshold, the condition for performing model training is satisfied (reconstruction training or Corrective training can be performed), if the first quantity is less than or equal to a first predetermined threshold, the condition for performing model training is not satisfied (reconstructional training or corrective training is not performed),
Alternatively, whether or not the model training command has been received is detected in real time or on a regular basis (for example, every 10 minutes), for example, the operator of the model training control system logs in to the system and operates on the model training operation screen. Incoming conditions for transmitting model training commands by clicking or triggering the “Model training” button on the model training operation screen, and for performing model training when the model training control system receives model training commands If the model training command is not received, the condition for performing model training is not satisfied (reconstruction training or correction training). Do not do training).

決定モジュール102は、モデル訓練を行うための条件を満たした場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを決定する。   The determination module 102 determines, if the conditions for performing model training are satisfied, whether or not reconstruction training needs to be performed on the random forest model.

モデル訓練を行うための条件を満たした場合、ランダムフォレストモデルに対して再構成的訓練を行うか、それとも補正的訓練を行うかを決定する。このうち、ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを決定することは、2回の再構成的訓練の間におけるユーザのサービスデータを基準とし(例えば、2回の再構成的訓練の間におけるユーザのサービスデータが所定の数量を超えると再構成的訓練を行う)、又は実際のニーズを基準とする(例えば、モデル訓練制御システムの操作者が実際のニーズに応じてモデル訓練制御システムに再構成的訓練実行コマンドを送信することにより、再構成的訓練を行う)などとする。   If the conditions for performing model training are satisfied, it is determined whether to perform reconstruction training or corrective training on a random forest model. Among these, determining whether or not the random forest model needs to be subjected to the reconstruction training is based on the service data of the user between the two reconstruction trainings (for example, twice). Based on the actual needs (for example, the operator of the model training control system responds to the actual needs), if the service data of the user during the reconstruction training exceeds the predetermined quantity, the reconstruction training is performed) Then, the model training control system transmits reconfiguration training execution command to perform reconfiguration training) and the like.

好ましくは、具体的には、決定モジュール102が、サービスシステムにおける前回の再構成的訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第2の数量(例えば、第2の数量を500人のユーザのサービスデータの数量とする)を取得し、前記第2の数量が第2の所定閾値を超えた場合、ランダムフォレストモデルに対して再構成的訓練を行う必要があるとし、前記第2の数量が第1の所定閾値超え第2の閾値未満の場合、前記ランダムフォレストモデルに対して補正的訓練を行い、
又は、所定の端末(例えば、携帯電話、タブレットPC、コンピュータなど好適な電子端末)にランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを問い合わせるリクエストを送信し、例えば、モデル訓練の操作画面に入って「モデル訓練」コマンドを発信した後、モデル訓練制御システムが、所定の端末に再構成的訓練を行うか否かを問い合わせる情報を送信し、端末から前記問い合わせリクエストに応じてフィードバックされた確認コマンドを受信した場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるとし、端末から前記問い合わせリクエストに応じてフィードバックされた否定コマンドを受信した又は所定の時間(例えば、3分間)以内に端末からフィードバックを受信しなかった場合、前記ランダムフォレストモデルに対して補正的訓練を行う。
Preferably, specifically, the determination module 102 determines the second quantity of service data of the user newly added during the period from the time when the previous reconstruction training in the service system is finished to the present time (for example, the second quantity Needs to perform the training on the random forest model if the number of services of 500 users is taken as the number of service data of 500 users and the second number exceeds a second predetermined threshold. And if the second quantity is greater than a first predetermined threshold and less than a second threshold, corrective training is performed on the random forest model,
Alternatively, it sends a request to a predetermined terminal (for example, a suitable electronic terminal such as a mobile phone, a tablet PC, a computer, etc.) as to whether or not it is necessary to perform reconfiguration training on the random forest model. After entering the training operation screen and transmitting a "model training" command, the model training control system transmits information inquiring whether or not to perform reconfiguration training on a predetermined terminal, and the terminal responds to the inquiry request from the terminal. When it is determined that the confirmation command that has been fed back is received, it is necessary to perform reconfiguration training on the random forest model, and a negative command that has been fed back from the terminal in response to the inquiry request is received or For example, when receiving no feedback from the terminal within 3 minutes) , A correction training with respect to the random forest model.

第1の訓練モジュール103は、前記ランダムフォレストモデルに対して再構成的訓練を行う必要がある場合、サンプルデータを用いて前記ランダムフォレストモデルに対して再構成的訓練を行う。   The first training module 103 performs reconstruction training on the random forest model using sample data when reconstruction training needs to be performed on the random forest model.

第2の訓練モジュール104は、前記ランダムフォレストモデルに対して再構成的訓練を行う必要がない場合、サンプルデータを用いて前記ランダムフォレストモデルに対して補正的訓練を行う。   The second training module 104 performs corrective training on the random forest model using sample data, when it is not necessary to perform reconstruction training on the random forest model.

本実施例では、サンプルデータは、既存のサンプルデータ及び新規追加されたサンプルデータを含む。再構成的訓練は、ランダムフォレストモデルの変数に対する確定的訓練及び変数の係数に対する確定的訓練を含み、補正的訓練は、ランダムフォレストモデルの変数の係数に対する確定的訓練のみを含む。このうち、ランダムフォレストモデルの変数は、例えば、アルゴリズムのタイプ、決定木の数量、決定木の最大の深さ、決定木のリーフとノードの各種のデータなどを含む。再構成的訓練に使用されるシステムリソースは、補正的訓練に用いるシステムリソースよりも多い。   In the present embodiment, the sample data includes existing sample data and newly added sample data. Reconstruction training includes deterministic training on variables of the random forest model and deterministic training on coefficients of the variables, and corrective training includes only deterministic training on coefficients of the variables of the random forest model. Among them, variables of the random forest model include, for example, the type of algorithm, the number of decision trees, the maximum depth of decision trees, and various data of leaves and nodes of decision trees. There are more system resources used for reconstructive training than system resources used for corrective training.

従来の技術と比べ、本実施例は、ランダムフォレストモデルを用いてオンラインサービスを利用するユーザについて分類する際、ランダムフォレストモデルに対して訓練を行うための条件を設定し又は限定することができ、オンラインサービスの進行に影響を与えないだけでなく、モデル訓練の回数を減らすとともに、モデル訓練のタイプを選択し、すなわち、モデル訓練を行うための条件を満たした場合、ランダムフォレストモデルに対して再構成的訓練を行うか、それとも補正的訓練を行うかを決定することで、ランダムフォレストモデルの訓練を選択的に行うことができ、これにより、システムの負荷を大幅に軽減し、オンラインサービスシステムの効率を高め、オンラインサービスを効率よく進めることができる。   Compared with the prior art, this embodiment can set or limit the conditions for training the random forest model when classifying the users who use the online service using the random forest model, Not only does it not affect the progress of online services, but it reduces the number of model trainings and selects the type of model training, that is, if the conditions for performing model training are met, the random forest model is re-created. By deciding whether to perform constitutive training or corrective training, it is possible to selectively train the random forest model, which greatly reduces the load on the system and allows the online service system to You can improve efficiency and promote online services efficiently.

一つの好ましい実施例では、図5に示すように、前記図4の実施例をベースに、前記第2の訓練モジュール104が特定手段1041と、訓練手段1042とを含む。   In one preferred embodiment, as shown in FIG. 5, based on the embodiment of FIG. 4, the second training module 104 includes identification means 1041 and training means 1042.

特定手段1041は、所定のランダムフォレストモデルの変数と変数の係数の値の範囲とのマッピング関係に基づき、各前記変数に対応する変数の係数の値の範囲を特定する。   The identifying unit 1041 identifies the range of coefficient values of the variable corresponding to each of the variables based on the mapping relationship between the predetermined random forest model variable and the range of the coefficient value of the variable.

訓練手段1042は、前記変数ごとに、対応する変数の係数の値の範囲から変数の係数の値を取得し、値を取得した変数の係数に基づき、前記ランダムフォレストモデルに対して補正的訓練を行う。   The training unit 1042 acquires the value of the coefficient of the variable from the range of the value of the coefficient of the corresponding variable for each of the variables, and performs correction training on the random forest model based on the coefficient of the variable whose value is acquired. Do.

本実施例では、ランダムフォレストモデルの変数と変数係数の値の範囲を、予め関連付けてマッピング関係を確立し、そして関連付けにより確立したマッピング関係を記憶してもよい(例えば、表の形式で記憶する)。ランダムフォレストモデルに対して訓練を行う前に、ランダムフォレストモデルの変数を決めた上で、記憶されている関連付けにより確立したマッピング関係を取得することで、対応する変数の係数の値の範囲を取得し、そして前記変数の係数の値を、得られた値の範囲に限定して取得することにより、モデル訓練の正確性を確保するとともに、ランダムフォレストモデルの各変数の係数の値を全数値範囲から取得して訓練を行うことを回避することで、モデル訓練の速度を効果的に速めることができる。   In this embodiment, the range of values of variables and variable coefficients of the random forest model may be associated in advance to establish a mapping relationship, and the mapping relationship established by the association may be stored (for example, stored in the form of a table) ). Before training on the random forest model, determine the variables of the random forest model, and obtain the mapping relationship established by the stored association, and obtain the value range of the coefficient of the corresponding variable The accuracy of model training is ensured by acquiring the values of the coefficients of the variables limited to the obtained range of values, and the values of the coefficients of each variable of the random forest model are in the entire numerical range By avoiding training from training, model training can be effectively speeded up.

以上にて本発明の好ましい実施例を記載したに過ぎず、これをもって本発明を限定するものではなく、本発明の趣旨及び範囲内で行われる修正、同等な置換や改良などであれば、いずれも本発明の保護範囲に含まれるものとする。   The preferred embodiments of the present invention have only been described above, and the present invention is not limited thereto, and any modifications, equivalent replacements, improvements, etc. which can be made within the spirit and scope of the present invention can be made. Are also included in the scope of protection of the present invention.

Claims (20)

ランダムフォレストモデルの訓練方法であって、
モデル訓練制御システムによってモデル訓練を行うための条件を満たしたか否かを分析するステップS1と、
モデル訓練を行うための条件を満たした場合、ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを決定するステップS2と、
前記ランダムフォレストモデルに対して再構成的訓練を行う必要がある場合、サンプルデータを用いて前記ランダムフォレストモデルに対して再構成的訓練を行うステップS3と、
前記ランダムフォレストモデルに対して再構成的訓練を行う必要がない場合、サンプルデータを用いて前記ランダムフォレストモデルに対して補正的訓練を行うステップS4と、
を含むことを特徴とするランダムフォレストモデルの訓練方法。
The training method of the random forest model,
Analyzing whether a condition for performing model training is satisfied by the model training control system;
Step S2 of determining whether the random forest model needs to be subjected to the reconstruction training if the condition for performing the model training is satisfied;
Performing reconstruction training on the random forest model using sample data when reconstruction training needs to be performed on the random forest model;
Performing corrective training on the random forest model using sample data, if it is not necessary to perform reconstruction training on the random forest model;
The training method of the random forest model characterized by including.
前記ステップS1として、
サービスシステムにおける前回のモデル訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第1の数量を取得し、前記第1の数量が第1の所定閾値を超えた場合、モデル訓練を行うための条件を満たしたとし、
又は、モデル訓練コマンドを受信したか否かをリアルタイムにもしくは定時的に検出し、モデル訓練コマンドを受信した場合、モデル訓練を行うための条件を満たしたとする
ことを特徴とする請求項1に記載のランダムフォレストモデルの訓練方法。
As said step S1,
Obtaining a first quantity of service data of a user newly added in a period from the end of previous model training in the service system to the current time, and the first quantity exceeds a first predetermined threshold, It is assumed that the conditions for performing model training are satisfied,
Alternatively, whether or not the model training command has been received is detected in real time or on a regular basis, and when the model training command is received, the condition for performing the model training is satisfied. Training method of random forest model.
前記ステップS2として、
サービスシステムにおける前回の再構成的訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第2の数量を取得し、前記第2の数量が第2の所定閾値を超えた場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるとし、
又は、所定の端末に前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを問い合わせるリクエストを送信し、前記端末から前記問い合わせリクエストに応じてフィードバックされた確認コマンドを受信した場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるとする
ことを特徴とする請求項1に記載のランダムフォレストモデルの訓練方法。
As said step S2,
A second quantity of service data of a user newly added in a period from the end of the last reconstruction training in the service system to the present time is obtained, and the second quantity exceeds a second predetermined threshold If it is necessary to perform reconstruction training on the random forest model,
Alternatively, a request for inquiring whether or not it is necessary to perform a reconfiguration training on the random forest model is transmitted to a predetermined terminal, and a confirmation command fed back from the terminal in response to the inquiry request is received. The training method of the random forest model according to claim 1, wherein it is necessary to perform reconstruction training on the random forest model.
前記再構成的訓練は、前記ランダムフォレストモデルの変数に対する確定的訓練及び変数の係数に対する確定的訓練を含み、
前記補正的訓練は、前記ランダムフォレストモデルの変数の係数に対する確定的訓練を含む
ことを特徴とする請求項1に記載のランダムフォレストモデルの訓練方法。
The reconstruction training includes deterministic training on variables of the random forest model and deterministic training on coefficients of the variables;
The method for training a random forest model according to claim 1, wherein the corrective training includes deterministic training on coefficients of variables of the random forest model.
前記ステップS1として、
サービスシステムにおける前回のモデル訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第1の数量を取得し、前記第1の数量が第1の所定閾値を超えた場合、モデル訓練を行うための条件を満たしたとし、
又は、モデル訓練コマンドを受信したか否かをリアルタイムにもしくは定時的に検出し、モデル訓練コマンドを受信した場合、モデル訓練を行うための条件を満たしたとする
ことを特徴とする請求項4に記載のランダムフォレストモデルの訓練方法。
As said step S1,
Obtaining a first quantity of service data of a user newly added in a period from the end of previous model training in the service system to the current time, and the first quantity exceeds a first predetermined threshold, It is assumed that the conditions for performing model training are satisfied,
Alternatively, whether or not the model training command has been received is detected in real time or on a regular basis, and when the model training command is received, the condition for performing the model training is satisfied. Training method of random forest model.
前記ステップS2として、
サービスシステムにおける前回の再構成的訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第2の数量を取得し、前記第2の数量が第2の所定閾値を超えた場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるとし、
又は、所定の端末に前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを問い合わせるリクエストを送信し、前記端末から前記問い合わせリクエストに応じてフィードバックされた確認コマンドを受信した場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるとする
ことを特徴とする請求項4に記載のランダムフォレストモデルの訓練方法。
As said step S2,
A second quantity of service data of a user newly added in a period from the end of the last reconstruction training in the service system to the present time is obtained, and the second quantity exceeds a second predetermined threshold If it is necessary to perform reconstruction training on the random forest model,
Alternatively, a request for inquiring whether or not it is necessary to perform a reconfiguration training on the random forest model is transmitted to a predetermined terminal, and a confirmation command fed back from the terminal in response to the inquiry request is received. The training method of the random forest model according to claim 4, wherein it is necessary to perform reconstruction training on the random forest model.
前記ステップS4は、
所定のランダムフォレストモデルの変数と変数の係数の値の範囲とのマッピング関係に基づき、各前記変数に対応する変数の係数の値の範囲を特定するステップS41と、
前記変数ごとに、対応する変数の係数の値の範囲から変数の係数の値を取得し、値を取得した変数の係数に基づき、前記ランダムフォレストモデルに対して補正的訓練を行うS42と、
を含むことを特徴とする請求項4に記載のランダムフォレストモデルの訓練方法。
In the step S4,
Identifying a range of coefficient values of variables corresponding to each of the variables based on a mapping relationship between a predetermined random forest model variable and the range of coefficient values of the variables;
Acquiring the value of the coefficient of the variable from the range of the value of the coefficient of the corresponding variable for each of the variables, and performing correction training on the random forest model based on the coefficient of the variable whose value has been acquired;
The training method of the random forest model according to claim 4 characterized by including.
電子装置であって、
処理機器と、記憶機器と、モデル訓練制御システムと、を含み、
前記モデル訓練制御システムは、前記記憶機器に記憶されており、少なくとも1つのコンピュータ読み取り可能なコマンドを含み、
前記少なくとも1つのコンピュータ読み取り可能なコマンドを前記処理機器が実行することで、
モデル訓練制御システムによってモデル訓練を行うための条件を満たしたか否かを分析するステップS1と、
モデル訓練を行うための条件を満たした場合、ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを決定するステップS2と、
前記ランダムフォレストモデルに対して再構成的訓練を行う必要がある場合、サンプルデータを用いて前記ランダムフォレストモデルに対して再構成的訓練を行うステップS3と、
前記ランダムフォレストモデルに対して再構成的訓練を行う必要がない場合、サンプルデータを用いて前記ランダムフォレストモデルに対して補正的訓練を行うステップS4と、を実現できる
ことを特徴とする電子装置。
An electronic device,
Processing equipment, storage equipment and model training control system,
The model training control system is stored in the storage device and includes at least one computer readable command;
The processing device executing the at least one computer readable command,
Analyzing whether a condition for performing model training is satisfied by the model training control system;
Step S2 of determining whether the random forest model needs to be subjected to the reconstruction training if the condition for performing the model training is satisfied;
Performing reconstruction training on the random forest model using sample data when reconstruction training needs to be performed on the random forest model;
If it is not necessary to carry out the reconstruction training on the random forest model, it is possible to realize the step S4 of performing the correction training on the random forest model using sample data.
前記ステップS1として、
サービスシステムにおける前回のモデル訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第1の数量を取得し、前記第1の数量が第1の所定閾値を超えた場合、モデル訓練を行うための条件を満たしたとし、
又は、モデル訓練コマンドを受信したか否かをリアルタイムにもしくは定時的に検出し、モデル訓練コマンドを受信した場合、モデル訓練を行うための条件を満たしたとする
ことを特徴とする請求項8に記載の電子装置。
As said step S1,
Obtaining a first quantity of service data of a user newly added in a period from the end of previous model training in the service system to the current time, and the first quantity exceeds a first predetermined threshold, It is assumed that the conditions for performing model training are satisfied,
Alternatively, whether or not the model training command has been received is detected in real time or on a regular basis, and when the model training command is received, the condition for performing the model training is satisfied. Electronic devices.
前記ステップS2として、
サービスシステムにおける前回の再構成的訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第2の数量を取得し、前記第2の数量が第2の所定閾値を超えた場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるとし、
又は、所定の端末に前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを問い合わせるリクエストを送信し、前記端末から前記問い合わせリクエストに応じてフィードバックされた確認コマンドを受信した場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるとする
ことを特徴とする請求項8に記載の電子装置。
As said step S2,
A second quantity of service data of a user newly added in a period from the end of the last reconstruction training in the service system to the present time is obtained, and the second quantity exceeds a second predetermined threshold If it is necessary to perform reconstruction training on the random forest model,
Alternatively, a request for inquiring whether or not it is necessary to perform a reconfiguration training on the random forest model is transmitted to a predetermined terminal, and a confirmation command fed back from the terminal in response to the inquiry request is received. The electronic device according to claim 8, wherein it is necessary to perform reconstruction training on the random forest model.
前記再構成的訓練は、前記ランダムフォレストモデルの変数に対する確定的訓練及び変数の係数に対する確定的訓練を含み、
前記補正的訓練は、前記ランダムフォレストモデルの変数の係数に対する確定的訓練を含む
ことを特徴とする請求項8に記載の電子装置。
The reconstruction training includes deterministic training on variables of the random forest model and deterministic training on coefficients of the variables;
The electronic device according to claim 8, wherein the corrective training includes deterministic training on coefficients of variables of the random forest model.
前記ステップS1として、
サービスシステムにおける前回のモデル訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第1の数量を取得し、前記第1の数量が第1の所定閾値を超えた場合、モデル訓練を行うための条件を満たしたとし、
又は、モデル訓練コマンドを受信したか否かをリアルタイムにもしくは定時的に検出し、モデル訓練コマンドを受信した場合、モデル訓練を行うための条件を満たしたとする
ことを特徴とする請求項11に記載の電子装置。
As said step S1,
Obtaining a first quantity of service data of a user newly added in a period from the end of previous model training in the service system to the current time, and the first quantity exceeds a first predetermined threshold, It is assumed that the conditions for performing model training are satisfied,
Alternatively, whether or not the model training command has been received is detected in real time or on a regular basis, and when the model training command is received, the condition for performing the model training is satisfied. Electronic devices.
前記ステップS2として、
サービスシステムにおける前回の再構成的訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第2の数量を取得し、前記第2の数量が第2の所定閾値を超えた場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるとし、
又は、所定の端末にランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを問い合わせるリクエストを送信し、前記端末から前記問い合わせリクエストに応じてフィードバックされた確認コマンドを受信した場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるとする
ことを特徴とする請求項11に記載の電子装置。
As said step S2,
A second quantity of service data of a user newly added in a period from the end of the last reconstruction training in the service system to the present time is obtained, and the second quantity exceeds a second predetermined threshold If it is necessary to perform reconstruction training on the random forest model,
Alternatively, when a request for inquiring whether or not it is necessary to perform reconfiguration training on a random forest model is required to a predetermined terminal is transmitted, and a confirmation command fed back according to the inquiry request is received from the terminal, The electronic device according to claim 11, wherein it is necessary to perform reconstruction training on the random forest model.
前記ステップS4は、
所定のランダムフォレストモデルの変数と変数の係数の値の範囲とのマッピング関係に基づき、各前記変数に対応する変数の係数の値の範囲を特定するS41と、
前記変数ごとに、対応する変数の係数の値の範囲から変数の係数の値を取得し、値を取得した変数の係数に基づき、前記ランダムフォレストモデルに対して補正的訓練を行うS42と、
を含むことを特徴とする請求項11に記載の電子装置。
In the step S4,
S41 identifying a range of coefficient values of variables corresponding to each of the variables based on a mapping relationship between a predetermined random forest model variable and a range of coefficient values of the variables;
Acquiring the value of the coefficient of the variable from the range of the value of the coefficient of the corresponding variable for each of the variables, and performing correction training on the random forest model based on the coefficient of the variable whose value has been acquired;
The electronic device according to claim 11, comprising:
コンピュータ読み取り可能な記憶媒体であって、
前記記憶媒体に少なくとも1つのコンピュータ読み取り可能なコマンドが記憶されており、
前記少なくとも1つのコンピュータ読み取り可能なコマンドを処理機器が実行することで、
モデル訓練制御システムによってモデル訓練を行うための条件を満たしたか否かを分析するステップS1と、
モデル訓練を行うための条件を満たした場合、ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを決定するステップS2と、
前記ランダムフォレストモデルに対して再構成的訓練を行う必要がある場合、サンプルデータを用いて前記ランダムフォレストモデルに対して再構成的訓練を行うステップS3と、
前記ランダムフォレストモデルに対して再構成的訓練を行う必要がない場合、サンプルデータを用いて前記ランダムフォレストモデルに対して補正的訓練を行うステップS4と、を実現できる
ことを特徴とするコンピュータ読み取り可能な記憶媒体。
A computer readable storage medium,
At least one computer readable command is stored on the storage medium;
A processing device executing the at least one computer readable command;
Analyzing whether a condition for performing model training is satisfied by the model training control system;
Step S2 of determining whether the random forest model needs to be subjected to the reconstruction training if the condition for performing the model training is satisfied;
Performing reconstruction training on the random forest model using sample data when reconstruction training needs to be performed on the random forest model;
Computer readable, it is possible to implement step S4 of performing corrective training on the random forest model using sample data, when it is not necessary to perform reconstruction training on the random forest model Storage media.
前記ステップS1として、
サービスシステムにおける前回のモデル訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第1の数量を取得し、前記第1の数量が第1の所定閾値を超えた場合、モデル訓練を行うための条件を満たしたとし、
又は、モデル訓練コマンドを受信したか否かをリアルタイムにもしくは定時的に検出し、モデル訓練コマンドを受信した場合、モデル訓練を行うための条件を満たしたとする
ことを特徴とする請求項15に記載の記憶媒体。
As said step S1,
Obtaining a first quantity of service data of a user newly added in a period from the end of previous model training in the service system to the current time, and the first quantity exceeds a first predetermined threshold, It is assumed that the conditions for performing model training are satisfied,
Alternatively, whether or not the model training command has been received is detected in real time or on a regular basis, and when the model training command is received, the condition for performing the model training is satisfied. Storage medium.
前記ステップS2として、
サービスシステムにおける前回の再構成的訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第2の数量を取得し、前記第2の数量が第2の所定閾値を超えた場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるとし、
又は、所定の端末に前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるか否かを問い合わせるリクエストを送信し、前記端末から前記問い合わせリクエストに応じてフィードバックされた確認コマンドを受信した場合、前記ランダムフォレストモデルに対して再構成的訓練を行う必要があるとする
ことを特徴とする請求項15に記載の記憶媒体。
As said step S2,
A second quantity of service data of a user newly added in a period from the end of the last reconstruction training in the service system to the present time is obtained, and the second quantity exceeds a second predetermined threshold If it is necessary to perform reconstruction training on the random forest model,
Alternatively, a request for inquiring whether or not it is necessary to perform a reconfiguration training on the random forest model is transmitted to a predetermined terminal, and a confirmation command fed back from the terminal in response to the inquiry request is received. The storage medium according to claim 15, wherein reconstruction training needs to be performed on the random forest model.
前記再構成的訓練は、前記ランダムフォレストモデルの変数に対する確定的訓練及び変数の係数に対する確定的訓練を含み、
前記補正的訓練は、前記ランダムフォレストモデルの変数の係数に対する確定的訓練を含む
ことを特徴とする請求項15に記載の記憶媒体。
The reconstruction training includes deterministic training on variables of the random forest model and deterministic training on coefficients of the variables;
The storage medium according to claim 15, wherein the corrective training includes deterministic training on coefficients of variables of the random forest model.
前記ステップS1として、
サービスシステムにおける前回のモデル訓練が終了した時点から現時点までの期間に新規追加されたユーザのサービスデータの第1の数量を取得し、前記第1の数量が第1の所定閾値を超えた場合、モデル訓練を行うための条件を満たしたとし、
又は、モデル訓練コマンドを受信したか否かをリアルタイムにもしくは定時的に検出し、モデル訓練コマンドを受信した場合、モデル訓練を行うための条件を満たしたとする
ことを特徴とする請求項18に記載の記憶媒体。
As said step S1,
Obtaining a first quantity of service data of a user newly added in a period from the end of previous model training in the service system to the current time, and the first quantity exceeds a first predetermined threshold, It is assumed that the conditions for performing model training are satisfied,
Alternatively, whether or not the model training command has been received is detected in real time or on a regular basis, and when the model training command is received, the condition for performing the model training is satisfied. Storage medium.
前記ステップS4は、
所定のランダムフォレストモデルの変数と変数の係数の値の範囲とのマッピング関係に基づき、各前記変数に対応する変数の係数の値の範囲を特定するステップS41と、
前記変数ごとに、対応する変数の係数の値の範囲から変数の係数の値を取得し、値を取得した変数の係数に基づき、前記ランダムフォレストモデルに対して補正的訓練を行うステップS42と、
を含むことを特徴とする請求項18に記載の記憶媒体。
In the step S4,
Identifying a range of coefficient values of variables corresponding to each of the variables based on a mapping relationship between a predetermined random forest model variable and the range of coefficient values of the variables;
Obtaining the value of the coefficient of the variable from the range of the value of the coefficient of the corresponding variable for each of the variables, and performing corrective training on the random forest model based on the coefficient of the variable whose value has been acquired;
The storage medium according to claim 18, comprising:
JP2018530893A 2017-03-13 2017-06-30 Random forest model training method, electronic apparatus, and storage medium Active JP6587330B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710147698.3A CN107632995B (en) 2017-03-13 2017-03-13 The method and model training control system of Random Forest model training
CN201710147698.3 2017-03-13
PCT/CN2017/091362 WO2018166113A1 (en) 2017-03-13 2017-06-30 Random forest model training method, electronic apparatus and storage medium

Publications (2)

Publication Number Publication Date
JP2019513246A true JP2019513246A (en) 2019-05-23
JP6587330B2 JP6587330B2 (en) 2019-10-09

Family

ID=61099137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018530893A Active JP6587330B2 (en) 2017-03-13 2017-06-30 Random forest model training method, electronic apparatus, and storage medium

Country Status (8)

Country Link
US (1) US20210081847A1 (en)
EP (1) EP3413212A4 (en)
JP (1) JP6587330B2 (en)
KR (1) KR102201919B1 (en)
CN (1) CN107632995B (en)
AU (1) AU2017404119A1 (en)
SG (1) SG11201809890PA (en)
WO (1) WO2018166113A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059207A1 (en) * 2020-09-18 2022-03-24 日本電信電話株式会社 Assessment device, assessment method, and assessment program

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109377388B (en) * 2018-09-13 2023-08-18 深圳平安医疗健康科技服务有限公司 Medical insurance application method, medical insurance application device, computer equipment and storage medium
US11625640B2 (en) * 2018-10-05 2023-04-11 Cisco Technology, Inc. Distributed random forest training with a predictor trained to balance tasks
CN109886544A (en) * 2019-01-17 2019-06-14 新奥数能科技有限公司 Construct method, apparatus, medium and the electronic equipment of energy efficiency of equipment curve model
CN110175677A (en) * 2019-04-16 2019-08-27 平安普惠企业管理有限公司 Automatic update method, device, computer equipment and storage medium
CN110070128A (en) * 2019-04-22 2019-07-30 深圳市绘云生物科技有限公司 A kind of chronic liver disease risk evaluating system based on Random Forest model
CN110532445A (en) * 2019-04-26 2019-12-03 长佳智能股份有限公司 The cloud transaction system and its method of neural network training pattern are provided
CN110232154B (en) * 2019-05-30 2023-06-09 平安科技(深圳)有限公司 Random forest-based product recommendation method, device and medium
KR102223161B1 (en) * 2019-10-11 2021-03-03 노주현 System and methods of predicting timeliness products based on weather data
KR20210050362A (en) 2019-10-28 2021-05-07 주식회사 모비스 Ensemble pruning method, ensemble model generation method for identifying programmable nucleases and apparatus for the same
CN111091408A (en) * 2019-10-30 2020-05-01 北京天元创新科技有限公司 User identification model creating method and device and identification method and device
KR102092684B1 (en) * 2020-01-23 2020-03-24 주식회사 두두아이티 Apparatus and method for cyber security training based on random forest
CN111767958A (en) * 2020-07-01 2020-10-13 武汉楚精灵医疗科技有限公司 Real-time enteroscopy withdrawal time monitoring method based on random forest algorithm
CN116759014B (en) * 2023-08-21 2023-11-03 启思半导体(杭州)有限责任公司 Random forest-based gas type and concentration prediction method, system and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2562690A2 (en) * 2011-08-22 2013-02-27 Siemens Aktiengesellschaft Assigning a number of reference measurement data sets to an input measurement data set
JP2014022837A (en) * 2012-07-13 2014-02-03 Nippon Hoso Kyokai <Nhk> Learning device and program
US20150237205A1 (en) * 2012-10-03 2015-08-20 ISelect Ltd. Systems and Methods for use in Marketing
CN105844300A (en) * 2016-03-24 2016-08-10 河南师范大学 Optimized classification method and optimized classification device based on random forest algorithm

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080133434A1 (en) 2004-11-12 2008-06-05 Adnan Asar Method and apparatus for predictive modeling & analysis for knowledge discovery
CN102221655B (en) * 2011-06-16 2013-08-07 河南省电力公司济源供电公司 Random-forest-model-based power transformer fault diagnosis method
CN102508907B (en) * 2011-11-11 2013-11-20 北京航空航天大学 Dynamic recommendation method based on training set optimization for recommendation system
JP5946364B2 (en) 2012-08-21 2016-07-06 株式会社Nttドコモ Time-series data processing system and time-series data processing method
JP2016519807A (en) 2013-03-15 2016-07-07 ザ クリーブランド クリニック ファウンデーションThe Cleveland ClinicFoundation Self-evolving prediction model
US9324022B2 (en) * 2014-03-04 2016-04-26 Signal/Sense, Inc. Classifying data with deep learning neural records incrementally refined through expert input
CN104155596B (en) * 2014-08-12 2017-01-18 北京航空航天大学 Artificial circuit fault diagnosis system based on random forest
US9836701B2 (en) * 2014-08-13 2017-12-05 Microsoft Technology Licensing, Llc Distributed stage-wise parallel machine learning
CN105718490A (en) * 2014-12-04 2016-06-29 阿里巴巴集团控股有限公司 Method and device for updating classifying model
CN105809707B (en) * 2014-12-30 2018-11-27 江苏慧眼数据科技股份有限公司 A kind of pedestrian tracting method based on random forests algorithm
CN106156809A (en) * 2015-04-24 2016-11-23 阿里巴巴集团控股有限公司 For updating the method and device of disaggregated model
US20160350675A1 (en) * 2015-06-01 2016-12-01 Facebook, Inc. Systems and methods to identify objectionable content
CN105045819B (en) * 2015-06-26 2018-04-20 深圳市腾讯计算机系统有限公司 The model training method and device of a kind of training data
CN105678567A (en) * 2015-12-31 2016-06-15 宁波领视信息科技有限公司 Accurate prediction system based on big data deep learning
CN105912500B (en) * 2016-03-30 2017-11-14 百度在线网络技术(北京)有限公司 Machine learning model generation method and device
CN105931224A (en) * 2016-04-14 2016-09-07 浙江大学 Pathology identification method for routine scan CT image of liver based on random forests

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2562690A2 (en) * 2011-08-22 2013-02-27 Siemens Aktiengesellschaft Assigning a number of reference measurement data sets to an input measurement data set
JP2014022837A (en) * 2012-07-13 2014-02-03 Nippon Hoso Kyokai <Nhk> Learning device and program
US20150237205A1 (en) * 2012-10-03 2015-08-20 ISelect Ltd. Systems and Methods for use in Marketing
CN105844300A (en) * 2016-03-24 2016-08-10 河南师范大学 Optimized classification method and optimized classification device based on random forest algorithm

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022059207A1 (en) * 2020-09-18 2022-03-24 日本電信電話株式会社 Assessment device, assessment method, and assessment program
JP7444270B2 (en) 2020-09-18 2024-03-06 日本電信電話株式会社 Judgment device, judgment method and judgment program

Also Published As

Publication number Publication date
EP3413212A4 (en) 2019-04-03
CN107632995B (en) 2018-09-11
WO2018166113A1 (en) 2018-09-20
JP6587330B2 (en) 2019-10-09
KR102201919B1 (en) 2021-01-12
KR20190022431A (en) 2019-03-06
AU2017404119A9 (en) 2019-06-06
US20210081847A1 (en) 2021-03-18
SG11201809890PA (en) 2018-12-28
EP3413212A1 (en) 2018-12-12
CN107632995A (en) 2018-01-26
AU2017404119A1 (en) 2018-10-11

Similar Documents

Publication Publication Date Title
JP6587330B2 (en) Random forest model training method, electronic apparatus, and storage medium
US20190311114A1 (en) Man-machine identification method and device for captcha
CN109726763B (en) Information asset identification method, device, equipment and medium
CN107305611B (en) Method and device for establishing model corresponding to malicious account and method and device for identifying malicious account
TW201717066A (en) Method, system and apparatus of planning resources for cluster computing architecture
JP2019519009A (en) Business customization device, method, system and storage medium based on data source
CN113176948B (en) Edge gateway, edge computing system and configuration method thereof
KR20170035892A (en) Recognition of behavioural changes of online services
CN113778871A (en) Mock testing method, device, equipment and storage medium
KR20210156243A (en) Training methods of deep-running frameworks, devices and storage media
CN109194545B (en) Network test platform flow generation system, method and device and electronic equipment
WO2013067724A1 (en) Cloud end user mapping system and method
CN110995489B (en) Large data platform server management method, device, server and storage medium
CN117251228A (en) Function management method, device, computer equipment and storage medium
CN111831991A (en) Input operation detection method, device, computing equipment and medium
CN109346080B (en) Voice control method, device, equipment and storage medium
CN112256760B (en) Data prediction method and device, computer equipment and storage medium
CN105653533A (en) Method and device for updating classified associated word set
CN114817671A (en) Log analysis method and system for air conditioner Internet of things
JP2021015421A (en) Information processing program, information processing method, and information processing apparatus
CN104407846A (en) Information processing method and device
CN117891595A (en) Data processing method and device, electronic equipment and storage medium
CN110719260B (en) Intelligent network security analysis method and device and computer readable storage medium
CN114153546B (en) Data stream transmission method and system for cloud desktop operation management system
CN114666391B (en) Method, device, equipment and storage medium for determining access track

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190906

R150 Certificate of patent or registration of utility model

Ref document number: 6587330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250