JP2024070372A - Learning method, information processing system, program and learning model - Google Patents

Learning method, information processing system, program and learning model Download PDF

Info

Publication number
JP2024070372A
JP2024070372A JP2022180816A JP2022180816A JP2024070372A JP 2024070372 A JP2024070372 A JP 2024070372A JP 2022180816 A JP2022180816 A JP 2022180816A JP 2022180816 A JP2022180816 A JP 2022180816A JP 2024070372 A JP2024070372 A JP 2024070372A
Authority
JP
Japan
Prior art keywords
learning
data
generator
learning method
true
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022180816A
Other languages
Japanese (ja)
Inventor
一男 米倉
一成 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2022180816A priority Critical patent/JP2024070372A/en
Priority to PCT/JP2023/037717 priority patent/WO2024101100A1/en
Publication of JP2024070372A publication Critical patent/JP2024070372A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

【課題】法則等に従った特徴が明示的には与えられていないデータを用いて学習を行うことのできる学習方法、情報処理システム、プログラム及び学習モデルを提供すること。【解決手段】本発明の一態様によれば、情報処理システムが実行する学習方法が提供される。この学習方法は、出力ステップと、受付ステップと、学習ステップとを備える。出力ステップでは、学習モデルが学習の過程で、与えられた条件に応じて、または条件を与えずに生成したデータを出力する。受付ステップでは、判定手段によるデータに対する真偽の判定結果の入力を受け付ける。学習ステップでは、判定結果に基づいて学習モデルの学習を進行させる。【選択図】図2[Problem] To provide a learning method, information processing system, program, and learning model capable of learning using data for which features according to rules or the like are not explicitly given. [Solution] According to one aspect of the present invention, a learning method executed by an information processing system is provided. This learning method includes an output step, a reception step, and a learning step. In the output step, the learning model outputs data generated during the learning process, either in response to given conditions or without given conditions. In the reception step, input of a judgment result of whether the data is true or false by a judgment means is accepted. In the learning step, learning of the learning model is progressed based on the judgment result. [Selected Figure] Figure 2

Description

本発明は、学習方法、情報処理システム、プログラム及び学習モデルに関する。 The present invention relates to a learning method, an information processing system, a program, and a learning model.

深層学習をはじめとする機械学習では、与えられたデータを使って学習モデルの学習を行う。このときデータには何らかの特徴が備わっている。データに特徴が備わるというのは、例えば質点の運動のデータがニュートンの運動の法則に従うことや、熱の輸送が熱力学の諸法則に従うことを意味する。また人の顔から年齢を認識するようなタスクでは、顔のデータには民俗学的ないし社会科学的な法則が備わっていると想定してよい。なお、学習モデルの精度を向上させるための学習データを生成することも提案されている(例えば、特許文献1を参照)。 In deep learning and other machine learning methods, a learning model is trained using given data. At this time, the data has some characteristics. For example, data with characteristics means that data on the motion of a mass point follows Newton's laws of motion, or that heat transport follows the laws of thermodynamics. In addition, in a task such as recognizing a person's age from their face, it can be assumed that face data is governed by folkloric or social scientific laws. It has also been proposed to generate learning data to improve the accuracy of a learning model (see, for example, Patent Document 1).

特開2021-96511号公報JP 2021-96511 A

ところで、学習に用いられるデータとして、様々なもの、例えば、実験値や実測値、機械的に生成した値等を用いることができるが、これらのデータには、法則等に従った特徴が含まれていない場合があり、特に、機械的に生成したデータは、法則等に従った特徴が明示的には与えられておらず、学習の過程でモデルがデータから、その特徴を読み取ることを期待するほかなかった。 By the way, various data can be used for learning, such as experimental values, measured values, mechanically generated values, etc., but this data may not contain features that follow laws, etc. In particular, mechanically generated data does not have explicit features that follow laws, etc., so there is no choice but to expect the model to read those features from the data during the learning process.

本発明では上記事情を鑑み、法則等に従った特徴が明示的には与えられていないデータを用いて学習を行うことのできる学習方法、情報処理システム、プログラム及び学習モデルを提供することとした。 In consideration of the above circumstances, the present invention provides a learning method, information processing system, program, and learning model that can learn using data for which characteristics according to rules, etc. are not explicitly given.

本発明の一態様によれば、情報処理システムが実行する学習方法が提供される。この学習方法は、出力ステップと、受付ステップと、学習ステップとを備える。出力ステップでは、学習モデルが学習の過程で、与えられた条件に応じて、または条件を与えずに生成したデータを出力する。受付ステップでは、判定手段によるデータに対する真偽の判定結果の入力を受け付ける。学習ステップでは、判定結果に基づいて学習モデルの学習を進行させる。 According to one aspect of the present invention, a learning method executed by an information processing system is provided. This learning method includes an output step, a reception step, and a learning step. In the output step, the learning model outputs data generated during the learning process, depending on given conditions or without given conditions. In the reception step, input of the judgment result of the judgment means as to whether the data is true or false is accepted. In the learning step, learning of the learning model is progressed based on the judgment result.

本発明の一態様によれば、特徴を明示的に与えられたデータを十分に準備することなく、学習を行わせることが可能となる。 According to one aspect of the present invention, it is possible to perform learning without preparing sufficient data with explicit features.

情報処理装置1の構成を示した図である。1 is a diagram showing a configuration of an information processing device 1. 情報処理装置1の機能的な構成を示すブロック図である。1 is a block diagram showing a functional configuration of an information processing device 1. FIG. 学習部112の構成例を示した図である。FIG. 2 illustrates an example of the configuration of a learning unit 112. 事前学習を行う際の学習部112の構成例を示した図である。FIG. 2 is a diagram illustrating an example of the configuration of a learning unit 112 when performing pre-learning. 判定部121の調整例を示した図である。11A and 11B are diagrams showing examples of adjustment of a determination unit 121. 情報処理装置1による学習結果の例を示した図である。11 is a diagram showing an example of a learning result by the information processing device 1. FIG. 従来の別の方法による学習結果の例を示した図である。FIG. 13 is a diagram showing an example of a learning result obtained by another conventional method.

以下、図面を用いて本開示の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。 Embodiments of the present disclosure will be described below with reference to the drawings. The various features shown in the embodiments below can be combined with each other.

ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。 The program for implementing the software used in this embodiment may be provided as a non-transitory computer-readable recording medium, or may be provided so that it can be downloaded from an external server, or may be provided so that the program is started on an external computer and its functions are implemented on a client terminal (so-called cloud computing).

また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。 In this embodiment, a "unit" may also include, for example, a combination of hardware resources implemented by a circuit in the broad sense and software information processing that can be specifically realized by these hardware resources. In addition, this embodiment handles various types of information, which may be represented, for example, by physical values of signal values representing voltage and current, high and low signal values as a binary bit collection consisting of 0 or 1, or quantum superposition (so-called quantum bits), and communication and calculations may be performed on a circuit in the broad sense.

また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。 In the broad sense, a circuit is a circuit realized by at least appropriately combining a circuit, circuitry, a processor, and memory. In other words, it includes application specific integrated circuits (ASICs), programmable logic devices (e.g., simple programmable logic devices (SPLDs), complex programmable logic devices (CPLDs), and field programmable gate arrays (FPGAs)), etc.

1.情報処理装置の構成
図1は、情報処理装置1の構成を示した図である。同図に示すように、情報処理装置1は、処理部11と、記憶部12と、一時記憶部13と、外部装置接続部14と、通信部15とを有しており、これらの構成要素が情報処理装置1の内部において通信バス16を介して電気的に接続されている。
1 is a diagram showing the configuration of an information processing device 1. As shown in the figure, the information processing device 1 has a processing unit 11, a storage unit 12, a temporary storage unit 13, an external device connection unit 14, and a communication unit 15, and these components are electrically connected via a communication bus 16 inside the information processing device 1.

処理部11は、例えば、中央処理装置(Central Processing Unit:CPU)により実現されるもので、記憶部12に記憶された所定のプログラムに従って動作し、種々の機能を実現する。 The processing unit 11 is realized, for example, by a central processing unit (CPU) and operates according to a predetermined program stored in the memory unit 12 to realize various functions.

記憶部12は、様々な情報を記憶する不揮発性の記憶媒体である。これは、例えばハードディスクドライブ(Hard Disk Drive:HDD)やソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスにより実現される。なお、記憶部12は、情報処理装置1と通信可能な別の装置に配するようにすることも可能である。 The storage unit 12 is a non-volatile storage medium that stores various information. This is realized by a storage device such as a hard disk drive (HDD) or a solid state drive (SSD). The storage unit 12 can also be arranged in a separate device that can communicate with the information processing device 1.

一時記憶部13は、揮発性の記憶媒体である。これは、例えばランダムアクセスメモリ(Random Access Memory:RAM)等のメモリにより実現され、処理部11が動作する際に一時的に必要な情報(引数、配列等)を記憶する。 The temporary storage unit 13 is a volatile storage medium. It is realized by a memory such as a random access memory (RAM), and stores information (arguments, arrays, etc.) that is temporarily required when the processing unit 11 operates.

外部装置接続部14は、例えばユニバーサルシリアルバス(Universal Serial Bus:USB)や高精細度マルチメディアインターフェース(High-Definition Multimedia Interface:HDMI(登録商標))といった規格に準じた接続部であり、キーボード等の入力装置やモニタ等の表示装置を接続可能としている。 The external device connection unit 14 is a connection unit that conforms to standards such as Universal Serial Bus (USB) and High-Definition Multimedia Interface (HDMI (registered trademark)), and allows the connection of input devices such as keyboards and display devices such as monitors.

通信部15は、例えばローカルエリアネットワーク(Local Area Network:LAN)規格に準じた通信手段であり、情報処理装置1とローカルエリアネットワークやこれを介したインターネット等のネットワークとの間の通信を実現する。 The communication unit 15 is, for example, a communication means conforming to the Local Area Network (LAN) standard, and realizes communication between the information processing device 1 and the local area network or a network such as the Internet via the local area network.

なお、情報処理装置1には、汎用のサーバ向けのコンピュータやパーソナルコンピュータ等を利用することが可能であり、複数のコンピュータを用いて情報処理装置1を構成することも可能である。 In addition, the information processing device 1 can be a general-purpose server computer, a personal computer, etc., and it is also possible to configure the information processing device 1 using multiple computers.

2.情報処理装置1の機能
次に、情報処理装置1の機能について説明する。情報処理装置1は、情報処理システムを構成するもので、プログラムにしたがって動作することで、後述する各機能部を実現する。このプログラムは、少なくとも1つのコンピュータに、後述する学習方法の各ステップを実行させるものである。具体的には、記憶部12に記憶されているプログラム、つまり、ソフトウェアに基づいて、ハードウェアである処理部11が動作することで、後述する各機能部を実現する。このとき、処理部11は、必要に応じて、記憶部12と、一時記憶部13と、外部装置接続部14と、通信部15とを動作させる。
2. Functions of the information processing device 1 Next, the functions of the information processing device 1 will be described. The information processing device 1 constitutes an information processing system, and operates according to a program to realize each functional unit described later. This program causes at least one computer to execute each step of a learning method described later. Specifically, the processing unit 11, which is hardware, operates based on a program stored in the storage unit 12, i.e., software, to realize each functional unit described later. At this time, the processing unit 11 operates the storage unit 12, the temporary storage unit 13, the external device connection unit 14, and the communication unit 15 as necessary.

ところで、ここで説明する情報処理システムは、少なくとも1つの装置からなる情報処理システムである。ここでは、その少なくとも1つの装置として情報処理装置1を含む情報処理システムを、例として説明する。この情報処理システムでは、後述する各部がなされるようにプログラムを実行可能な、少なくとも1つのプロセッサを備える。このプロセッサは、例えば、処理部11に相当するものである。 The information processing system described here is an information processing system consisting of at least one device. Here, an information processing system including an information processing device 1 as the at least one device will be described as an example. This information processing system includes at least one processor capable of executing programs to operate each unit described below. This processor corresponds to, for example, the processing unit 11.

また、情報処理システムにより実現された学習モデルは、後述する学習方法により学習を行ったものであり、その学習の成果等が記憶部12に記憶されることになる。この記憶された学習モデルは、他のコンピュータ等の情報処理装置において、学習済みの学習モデルとして利用することができる。 The learning model realized by the information processing system is learned using a learning method described below, and the results of the learning are stored in the memory unit 12. This stored learning model can be used as a trained learning model in other information processing devices such as computers.

図2は、情報処理装置1の機能的な構成を示すブロック図である。同図に示すように、情報処理装置1は、プログラムにより、学習装置110と、判定装置120とを機能として実現する。なお、図2においては、情報処理装置1に学習装置110と判定装置120とを実現させているが、判定装置120を、ネットワーク等を介して通信可能な別の情報処理装置に実現させたり、情報処理装置とは別の構成を有する装置として実現するようにしてもよい。 Figure 2 is a block diagram showing the functional configuration of the information processing device 1. As shown in the figure, the information processing device 1 realizes the functions of a learning device 110 and a judgment device 120 through a program. Note that in Figure 2, the learning device 110 and the judgment device 120 are realized in the information processing device 1, but the judgment device 120 may be realized in a separate information processing device that can communicate via a network or the like, or may be realized as a device having a configuration separate from the information processing device.

学習装置110は、条件受付部111と、学習部112と、出力部113と、受付部114とを備える。また、判定装置120は、例えば、判定部121を備える。条件受付部111は、学習を行うための条件を受け付ける。例えば、質点を投げた場合の軌跡を予測する学習を行う場合には、初速と、投出の際の角度とが条件となり、二次元層流翼(模型飛行機の主翼等)の設計を学習する場合には、揚力係数が条件となり、タービン翼(航空エンジンの回転部分の翼等)の設計を学習する場合には、流出角と、損失係数とが条件となる。この条件は、1つの数値であってもよく、複数の数値又は、数値の範囲として指定してもよく、また全く条件が無くても良い。学習部112と、出力部113と、受付部114は、それぞれ、後述する学習ステップと、出力ステップと、受付ステップとを実行する。 The learning device 110 includes a condition receiving unit 111, a learning unit 112, an output unit 113, and a receiving unit 114. The judgment device 120 includes, for example, a judgment unit 121. The condition receiving unit 111 receives conditions for learning. For example, when learning to predict the trajectory of a thrown mass point, the initial velocity and the angle at the time of throwing are the conditions, when learning the design of a two-dimensional laminar flow wing (such as the main wing of a model airplane), the lift coefficient is the condition, and when learning the design of a turbine wing (such as the wing of the rotating part of an aircraft engine), the outflow angle and the loss coefficient are the conditions. This condition may be one numerical value, may be specified as multiple numerical values or a numerical range, or may not be a condition at all. The learning unit 112, the output unit 113, and the receiving unit 114 respectively execute a learning step, an output step, and a receiving step, which will be described later.

また、判定手段である判定部121は、条件受付部111が受け付けた条件と同様の条件に基づいて、出力部113が後述する出力ステップにより出力したデータの真偽を判定する。判定部121を含む判定装置120は、解析ソフトや、設計ソフト、シミュレーションソフトといった学習装置110とは別のソフトウェアにより実現することが可能なものであり、好ましくは、物理的法則に基づく計算が可能な当該別のソフトウェアによる計算結果に基づいて出力ステップで出力したデータの真偽を判定するものがよく、例えば、出力ステップにより出力されたデータが、物理的に正しいか否かを判断し、正しければ「真」、正しくなければ「偽」と判断するものである。具体的には、出力ステップで出力したデータに基づいて算出した値と、物理的法則に基づいて計算した値との誤差が予め定めた値よりも小さいものを「真」、誤差が予め定めた値以上のものを「偽」と判断する。なお、判定装置120は、物理的な検証を行うものである必要はなく、例えば、質点を投げた場合の軌跡は、上昇から下降に転じた後に再度上昇することは無いため、いわゆるギザギザな軌跡となることは無く、図形の解析を行うソフトを用いてギザギザの有無を検出するような態様とすることができる。また、官能評価を行う場合、例えば調香の学習を行う場合には、その結果を鑑定師等の人が判定するなど、人による判定を行う態様とすることもできる。 The judgment unit 121, which is a judgment means, judges whether the data output by the output unit 113 in the output step described later is true or false, based on the same conditions as those accepted by the condition acceptance unit 111. The judgment device 120 including the judgment unit 121 can be realized by software other than the learning device 110, such as analysis software, design software, or simulation software, and preferably judges the true or false of the data output in the output step based on the calculation results of the other software capable of calculation based on physical laws, for example, judging whether the data output in the output step is physically correct or not, and judging it as "true" if it is correct, and "false" if it is not correct. Specifically, it judges "true" if the error between the value calculated based on the data output in the output step and the value calculated based on physical laws is smaller than a predetermined value, and judges "false" if the error is equal to or greater than a predetermined value. The determination device 120 does not need to perform physical verification. For example, when a mass point is thrown, the trajectory does not rise and then fall, and does not rise again, so the trajectory does not become a so-called jagged trajectory. Software that analyzes shapes can be used to detect the presence or absence of jagged edges. In addition, when performing a sensory evaluation, for example when learning about perfume blending, the results can be judged by a person such as an appraiser, and the judgment can be performed by a person.

また、学習装置110に、図示しないプレ判定部を設け、生成したデータが明らかにおかしい場合、当該データを判定部121に判定させず、再度データを生成させるようにしてもよい。生成したデータが明らかにおかしい場合とは、簡単な法則に矛盾している、生成値の上下限値を超える、出力値と入力値の関係(比率の上下限値など)が破綻している等である。 The learning device 110 may also be provided with a pre-judgment unit (not shown) so that if the generated data is clearly abnormal, the data is not judged by the judgment unit 121 and the data is generated again. Examples of cases where the generated data is clearly abnormal include cases where it contradicts a simple rule, where the upper and lower limits of the generated value are exceeded, where the relationship between the output value and the input value (such as the upper and lower limits of a ratio) is broken, etc.

3.学習の概要
次に、学習装置110が行う学習の概要について説明する。ここで説明する学習方法は、情報処理システム(情報処理装置1)が実行する学習方法である。この学習方法は、出力ステップと、受付ステップと、学習ステップとを備える。
3. Overview of Learning Next, an overview of the learning performed by the learning device 110 will be described. The learning method described here is a learning method executed by an information processing system (information processing device 1). This learning method includes an output step, a reception step, and a learning step.

出力ステップでは、出力部113が、学習部112に含まれる学習モデルが学習の過程で、与えられた条件、つまり、条件受付部111が受け付けた条件に応じて、または条件を与えずに生成したデータを判定部121へ出力する。このとき、出力部113は、判定部121が入力可能な態様に、データを変換する。このデータは、判定部121により、条件に対して真であるか偽であるか判定される。 In the output step, the output unit 113 outputs to the determination unit 121 data that the learning model included in the learning unit 112 has generated during the learning process according to given conditions, i.e., conditions accepted by the condition acceptance unit 111, or without giving any conditions. At this time, the output unit 113 converts the data into a form that can be input by the determination unit 121. The determination unit 121 determines whether this data is true or false with respect to the conditions.

受付ステップでは、受付部114が、判定部121によるデータに対する真偽の判定結果の入力を受け付ける。学習ステップでは、受付部114が受け付けた判定結果に基づいて学習部112に含まれる学習モデルの学習を進行させる。このように、学習装置110は、判定装置120による判定の結果を用いて学習を行う。真偽の判定は、例えば、データの条件に対する真偽を判定である。 In the reception step, the reception unit 114 receives an input of the result of the judgment made by the judgment unit 121 as to whether the data is true or false. In the learning step, the reception unit 114 proceeds with learning of the learning model included in the learning unit 112 based on the judgment result received. In this way, the learning device 110 performs learning using the result of the judgment made by the judgment device 120. The judgment of true or false is, for example, a judgment of true or false with respect to a condition of the data.

4.学習の具体例
図3は、学習部112の構成例を示した図である。学習部112は、学習モデルである生成器1121と識別器1122とを備えるとともに、比較部1123を備える。なお、図3においては、比較部1123は、条件受付部111、出力部113、受付部114は、省略している。
4. Specific Example of Learning Fig. 3 is a diagram showing a configuration example of the learning unit 112. The learning unit 112 includes a generator 1121 and a discriminator 1122, which are learning models, and also includes a comparison unit 1123. Note that in Fig. 3, the comparison unit 1123, the condition reception unit 111, the output unit 113, and the reception unit 114 are omitted.

生成器1121は、生成ネットワーク(generator)とも称されるニューラルネットワークの一種であり、条件受付部111が受け付けた条件とランダムノイズに基づいて、データを生成する。識別器1122は、識別ネットワーク(discriminator)とも称されるニューラルネットワークの一種であり、生成器1121が生成したデータの真偽を識別する。比較部1123は、比較ステップを実行するもので、この比較ステップでは、判定部121による判定結果と、識別器1122による識別結果とを比較する。 The generator 1121 is a type of neural network also called a generator, and generates data based on the conditions and random noise received by the condition receiving unit 111. The discriminator 1122 is a type of neural network also called a discriminator, and discriminates whether the data generated by the generator 1121 is true or false. The comparison unit 1123 executes a comparison step, in which the judgment result by the judgment unit 121 is compared with the discrimination result by the discriminator 1122.

そして、学習ステップでは、比較ステップによる比較の結果に基づいて、生成器1121と識別器1122との学習を進行させる。この学習では、生成器1121に、識別器1122が真と識別するデータを生成するように学習させ、識別器1122に、データの真偽を判定部121による判定結果と同じ識別を行うように学習させる。この学習は、敵対的生成ネットワーク(GAN:Generative adversarial networks)と類似する学習方法である。敵対的生成ネットワークでは、生成器は、識別器が識別を誤る、つまり、生成器が生成したデータを教師データと識別することを目的とした学習を行い、識別器は、教師データを「真」、生成器が生成したデータを「偽」と識別することを目的とした学習を行う。これに対して、生成器1121は、敵対的生成ネットワークの生成器と同様の学習を行い、識別器1122は、生成器1121が生成したデータのうち判定部121により「真」と判定されたデータを、敵対的生成ネットワークの教師データであるものとした場合と同様の学習を行う。このため、生成器1121の学習と、識別器1122の学習の具体的な方法は、敵対的生成ネットワークにおける学習と同様である。 In the learning step, the generator 1121 and the discriminator 1122 are trained based on the results of the comparison in the comparison step. In this learning, the generator 1121 is trained to generate data that the discriminator 1122 discriminates as true, and the discriminator 1122 is trained to discriminate the truth of the data in the same way as the result of the judgment by the judgment unit 121. This learning is a learning method similar to generative adversarial networks (GANs). In a generative adversarial network, the generator performs learning with the aim of causing the discriminator to make a mistake in discrimination, that is, to discriminate the data generated by the generator from the teacher data, and the discriminator performs learning with the aim of discriminating the teacher data as "true" and the data generated by the generator as "false". In response to this, the generator 1121 performs learning in the same way as the generator of the generative adversarial network, and the discriminator 1122 performs learning in the same way as in the case where data generated by the generator 1121 that is determined to be "true" by the determination unit 121 is regarded as training data for the generative adversarial network. Therefore, the specific methods for training the generator 1121 and the discriminator 1122 are similar to those for training in the generative adversarial network.

このような学習を、生成器1121と識別器1122とに行わせることで、その学習が進行すると、生成器1121が生成するデータの精度が高くなり、判定部121が「偽」と判定するデータを生成する確度が低くなる、つまり、物理的法則等に矛盾することのないデータを生成することができるようになる。 By having the generator 1121 and the discriminator 1122 perform this type of learning, as the learning progresses, the accuracy of the data generated by the generator 1121 increases, and the likelihood that the judgment unit 121 will generate data that is judged to be "false" decreases, meaning that it becomes possible to generate data that does not contradict physical laws, etc.

5.事前学習
ところで、生成器1121は、初期状態、つまり、何ら学習を行っていない状態では、判定部121が「真」と判定するデータを生成する確度は低く、また、識別器1122も、判定部121の判定結果と同様の識別を行う確度は低い。したがって、学習部112の学習に要する時間が長くなる可能性がある。
5. Pre-Learning Meanwhile, in the initial state, that is, in a state where no learning has been performed, the generator 1121 has a low probability of generating data that the determination unit 121 determines to be “true”, and the discriminator 1122 also has a low probability of making a classification similar to the determination result of the determination unit 121. Therefore, the time required for learning by the learning unit 112 may be long.

この学習に要する時間が長くなることを回避するために、学習ステップでは、比較ステップによる比較の結果に基づく学習の事前に、教師データを用いて生成器1121の事前学習を進行させるようにしてもよい。生成器1121は、ニューラルネットワークとしても動作することができるものであるため、事前学習では、生成器1121を一般的なニューラルネットワークとして動作させ、教師データを用いた学習を行わせることとなる。また、学習ステップでは、比較ステップによる比較の結果に基づく学習の事前に、教師データを用いて生成器1121、又は生成器1121と識別器1122との両者に事前学習を進行させるようにしてもよい。この事前学習は、生成器1121に、識別器1122が真と識別するデータを生成するように学習させ、識別器1122に、教師データを真と識別するように学習させる。なお、生成器1121のみを事前学習させる場合には、識別器1122に代えて、別の識別器を用いることとなる。つまり、事前学習は、生成器1121と識別器1122とを敵対的生成ネットワークとして動作させることと同意である。この事前学習では、生成器1121で所定数の2倍より多くのデータ、例えば、所定数よりも十分に多くのデータを生成し、この生成したデータのうち、誤差の少ない所定数のデータと誤差の大きい所定数のデータを使用することができる。この誤差は、判定部121が算出するもので、データに基づいて算出された値と、物理的法則に基づく値との差である。例えば、教師データの数を64としたい場合、その10倍程度の数のデータを生成器1121に生成させ、この生成されたデータのうち、誤差の少ない32のデータと、誤差の多い32のデータを教師データとする。 In order to avoid the time required for this learning from increasing, in the learning step, the generator 1121 may be pre-trained using teacher data before learning based on the results of the comparison in the comparison step. Since the generator 1121 can also operate as a neural network, in the pre-learning, the generator 1121 is operated as a general neural network and learning is performed using teacher data. In addition, in the learning step, the generator 1121, or both the generator 1121 and the discriminator 1122 may be pre-trained using teacher data before learning based on the results of the comparison in the comparison step. In this pre-learning, the generator 1121 is trained to generate data that the discriminator 1122 discriminates as true, and the discriminator 1122 is trained to discriminate the teacher data as true. Note that when only the generator 1121 is pre-trained, another discriminator is used instead of the discriminator 1122. In other words, pre-learning is equivalent to operating the generator 1121 and the discriminator 1122 as a generative adversarial network. In this pre-learning, the generator 1121 generates more than twice the predetermined number of data, for example, much more data than the predetermined number, and from this generated data, a predetermined number of data with low error and a predetermined number of data with high error can be used. This error is calculated by the determination unit 121 and is the difference between a value calculated based on data and a value based on physical laws. For example, if the number of training data is desired to be 64, the generator 1121 is made to generate about 10 times that amount of data, and from this generated data, 32 data with low error and 32 data with high error are used as training data.

また、事前学習で用いる教師データは、生成器1121が生成したデータのうち、判定部121により「真」と判定されたデータを用いるようにしてもよい。図4は、事前学習を行う際の学習部112の構成例を示した図である。同図に示すように、学習部112は、提供部1124を備える。提供部1124は、判定部121が「真」と判定したデータを蓄積し、適宜、識別器1122に提供する。適宜とは、事前学習において、識別器1122には、生成器1121が生成したデータと、教師データとが、ランダムに入力されるため、常に提供されるものではないことを意味する。 The teacher data used in pre-learning may be data generated by the generator 1121 and determined to be "true" by the determination unit 121. FIG. 4 is a diagram showing an example of the configuration of the learning unit 112 when performing pre-learning. As shown in the figure, the learning unit 112 includes a providing unit 1124. The providing unit 1124 accumulates data determined to be "true" by the determination unit 121 and provides it to the discriminator 1122 as appropriate. "As appropriate" means that in pre-learning, the data generated by the generator 1121 and the teacher data are input randomly to the discriminator 1122, and therefore are not always provided.

また、事前学習においては、条件が数値の範囲として与えられた場合に、該数値の範囲に含まれる所定の数の数値を条件として事前学習を行うようにしてもよい。例えば、条件として、揚力係数が0から1.6までであることを条件として学習を行わせる場合、最終的には、0から1.6までの任意の値を条件として入力することができるように学習を行わせるが、事前学習においては、例えば、条件を、0.1、1.5、0.95、1.58の4つとして学習を行わせ、学習部112の学習の速度を向上させることもできる。 In addition, in pre-learning, when the conditions are given as a range of numerical values, pre-learning may be performed with a predetermined number of numerical values included in the range of numerical values as the conditions. For example, when learning is performed with the condition that the lift coefficient is between 0 and 1.6, learning is performed so that any value between 0 and 1.6 can ultimately be input as the condition. However, in pre-learning, for example, learning can be performed with four conditions, 0.1, 1.5, 0.95, and 1.58, to improve the learning speed of the learning unit 112.

6.判定手段の調整
ところで、判定手段である判定部121が、調整可能なものである場合、その調整により、学習部112の学習の速度を早めることができる。例えば、判定部121が、基準値に対して上限値と下限値を設定できる場合、図5に示すような設定を行う。図5は、判定部121の調整例を示した図である。図5に実線で示した基準値は、条件と、当該条件に応じて生成器1121が生成したデータに基づく値が一致することを示している。この基準値は、例えば、設計する二次元層流翼の条件である揚力係数と、この条件に応じて生成器1121が生成した二次元層流翼のデータ(形状)に従って作成された二次元層流翼の揚力係数とが、一致した場合を「真」と判定するもので、図5に示した例では、条件が0.8である場合、生成器1121が生成したデータに基づく値が0.8の場合のみ真となる。判定部121が調整可能である場合、判定部121は、データが、基準値の上限値以下で、かつ、該基準値の下限値以上の場合に、当該データを「真」と判定する。例えば、条件が0.8、上限値と下限値の調整可能な範囲をともに0.2とした場合、生成器1121が生成したデータに基づく値が1.0以下で、かつ、0.6以上である場合、当該データは、「真」と判定される。この上限値は、学習モデルの学習の進行に伴って引き下げられ、下限値は、学習モデルの学習の進行に伴って引き上げられることが望ましい。また、上限値及び下限値は条件の値によって異なる値を取っても良い。
6. Adjustment of the Determination Means If the determination unit 121, which is the determination means, is adjustable, the speed of learning of the learning unit 112 can be increased by adjusting it. For example, if the determination unit 121 can set an upper limit value and a lower limit value for the reference value, the setting is performed as shown in FIG. 5. FIG. 5 is a diagram showing an example of adjustment of the determination unit 121. The reference value shown by a solid line in FIG. 5 indicates that the condition and the value based on the data generated by the generator 1121 according to the condition match. This reference value, for example, determines that the lift coefficient, which is the condition of the two-dimensional laminar wing to be designed, matches the lift coefficient of the two-dimensional laminar wing created according to the data (shape) of the two-dimensional laminar wing generated by the generator 1121 according to this condition, as "true." In the example shown in FIG. 5, when the condition is 0.8, the value based on the data generated by the generator 1121 is 0.8 only when it is 0.8. When the judgment unit 121 is adjustable, the judgment unit 121 judges the data to be "true" when the data is equal to or less than the upper limit of the reference value and equal to or greater than the lower limit of the reference value. For example, when the condition is 0.8 and the adjustable ranges of the upper limit and lower limit are both 0.2, if the value based on the data generated by the generator 1121 is equal to or less than 1.0 and equal to or greater than 0.6, the data is judged to be "true". It is desirable that the upper limit is lowered as the learning of the learning model progresses, and the lower limit is raised as the learning of the learning model progresses. In addition, the upper limit and lower limit may take different values depending on the value of the condition.

また、判定手段である判定部121が対応可能であれば、判定部121は、データと基準値との差を判定結果に含めるようにしてもよい。この場合、学習部112は、データと基準値との差に基づいた学習を行うことになる。 If the judgment unit 121, which is the judgment means, is capable of handling this, the judgment unit 121 may include the difference between the data and the reference value in the judgment result. In this case, the learning unit 112 will perform learning based on the difference between the data and the reference value.

6.定式化
上述した構成では、教師データを使用せずに、生成データを物理モデルで検証し、誤差が大きければ「偽」、誤差が小さければ「真」と判定するもので、識別器1122は、物理モデルと同じ判定ができるように学習を行い、生成器1121は、識別器1122を欺く、つまり、識別器1122が「真」と判定するデータを生成するように学習を行う。なお、物理モデルとしては、別途のソフトウェア等を用いることができるものである。
6. Formulation In the above-described configuration, generated data is verified by a physical model without using teacher data, and if the error is large, it is judged as "false", and if the error is small, it is judged as "true", the classifier 1122 learns so as to be able to make the same judgment as the physical model, and the generator 1121 learns so as to deceive the classifier 1122, that is, to generate data that the classifier 1122 judges as "true". Note that separate software or the like can be used as the physical model.

ここで、これらを、数式を用いて説明する。上述した構成では、数1を満たすxを生成することを目的とする。つまり、xが数1を満たす場合には「真」と判定し、xが数1を満たさない場合には「偽」と判定して学習を行う。この場合、目的関数は、数2に示す集合を用いて、数3で表すことができる。
Here, these will be explained using mathematical expressions. In the above-mentioned configuration, the objective is to generate x that satisfies mathematical expression 1. In other words, if x satisfies mathematical expression 1, it is determined to be "true," and if x does not satisfy mathematical expression 1, it is determined to be "false," and learning is performed. In this case, the objective function can be expressed by mathematical expression 3 using the set shown in mathematical expression 2.

しかしながら、数2を満たす集合は、0である場合が多いため数4も0となる。このため、数5で示す集合を数6で定義する。ただし、数7である。また、数5の測度は0ではなく、期待値計算が可能である。したがって、目的関数は、数8で示すものとなる。また、ニューラルネットワークの最適化においては、数9に示す最適化を行う。ただし、h(i)は、エポック数iの関数で、iが大きくなると0に収束する関数である。
However, since a set that satisfies Equation 2 is often 0, Equation 4 is also 0. For this reason, the set shown in Equation 5 is defined by Equation 6, where Equation 7 is used. Furthermore, the measure of Equation 5 is not 0, and an expected value can be calculated. Therefore, the objective function is as shown in Equation 8. Furthermore, in optimizing a neural network, optimization shown in Equation 9 is performed, where h(i) is a function of the epoch number i, and is a function that converges to 0 as i becomes larger.

7.使用例
続いて、上述した構成の使用例を説明する。数10に示すデータがあるとする。このデータのxは、ある関数fとパラメータθに対して、数1を満たすものとする。このとき、数11に示す所与の値に対して数12を満たすxを探すことが、目的となる。
7. Example of Use Next, an example of use of the above-mentioned configuration will be described. Suppose there is data shown in Expression 10. Assume that x of this data satisfies Expression 1 for a certain function f and parameter θ. In this case, the objective is to find x that satisfies Expression 12 for a given value shown in Expression 11.

ここで、具体例として、翼設計の場合を説明する。翼形状を、点列を集めたベクトルで表すと、数13で表せる。また、あるxに対して、決められたレイノルズ数および迎角における揚力係数θが唯一決まる。関数gをxからθを計算する関数(数14に示す)とすると、関数gを用いて、数1は、数15で表すことができる。この場合、数11に示す所与の値に対して数12を満たすxを探すことは、所与の揚力係数(数11)を与える形状xを探すことに相当する。
Here, as a specific example, the case of wing design will be described. When the wing shape is expressed as a vector of a series of points, it can be expressed by Equation 13. Furthermore, for a certain x, the lift coefficient θ at a determined Reynolds number and angle of attack is uniquely determined. If function g is a function (shown in Equation 14) that calculates θ from x, Equation 1 can be expressed by Equation 15 using function g. In this case, searching for x that satisfies Equation 12 for a given value shown in Equation 11 is equivalent to searching for a shape x that gives a given lift coefficient (Equation 11).

8.結果例
次に、上述した構成による試行結果の例を示す。図6は、情報処理装置1による学習結果の例を示した図であり、図7は、従来の別の方法による学習結果の例を示した図である。なお、図6及び図7に示した例では、条件を0から1.58まで、1.58/1000毎に指定している。図6及び図7から明らかなように、情報処理装置1による学習では、条件の範囲の全般において、従来のものよりも良好な結果を得ることができた。
8. Example of Results Next, an example of trial results by the above-mentioned configuration is shown. FIG. 6 is a diagram showing an example of learning results by the information processing device 1, and FIG. 7 is a diagram showing an example of learning results by another conventional method. In the examples shown in FIG. 6 and FIG. 7, the conditions are specified from 0 to 1.58, in increments of 1.58/1000. As is clear from FIG. 6 and FIG. 7, the learning by the information processing device 1 was able to obtain better results than the conventional method over the entire range of conditions.

9.その他
以上説明した学習方法は、情報処理システムが実行する学習方法であり、この学習方法は、出力ステップと、受付ステップと、学習ステップとを備える。
9. Others The learning method described above is a learning method executed by an information processing system, and includes an output step, a receiving step, and a learning step.

情報処理装置1は、オンプレミス形態であってもよく、クラウド形態であってもよい。クラウド形態の情報処理装置1としては、例えば、SaaS(Software as a Service)、クラウドコンピューティングという形態で、上記の機能や処理を提供してもよい。 The information processing device 1 may be in an on-premise form or in a cloud form. As an information processing device 1 in a cloud form, for example, the above functions and processes may be provided in the form of SaaS (Software as a Service) or cloud computing.

本発明は、次に記載の各態様で提供されてもよい。 The present invention may be provided in the following aspects:

(1)情報処理システムが実行する学習方法であって、出力ステップと、受付ステップと、学習ステップとを備え、前記出力ステップでは、学習モデルが学習の過程で、与えられた条件に応じて、または前記条件を与えずに生成したデータを出力し、前記受付ステップでは、判定手段による前記データに対する真偽の判定結果の入力を受け付け、前記学習ステップでは、前記判定結果に基づいて前記学習モデルの学習を進行させる学習方法。 (1) A learning method executed by an information processing system, comprising an output step, a reception step, and a learning step, in which the output step outputs data generated by a learning model during the learning process in accordance with given conditions or without the conditions being given, the reception step receives input of a judgment result of the truth or falsity of the data by a judgment means, and the learning step progresses the learning of the learning model based on the judgment result.

(2)上記(1)に記載の学習方法において、前記判定手段は、物理的法則に基づいて前記データの真偽を判定する学習方法。 (2) In the learning method described in (1) above, the determination means determines whether the data is true or false based on physical laws.

(3)上記(2)に記載の学習方法において、前記判定手段は、前記データの前記条件に対する真偽を判定する学習方法。 (3) In the learning method described in (2) above, the determination means determines whether the data corresponds to the condition.

(4)上記(1)乃至は上記(3)のいずれか1つに記載の学習方法において、比較ステップを備え、前記学習モデルは、生成器と識別器とを備え、前記生成器は、前記データを生成し、前記識別器は、前記データの真偽を識別し、前記比較ステップでは、前記判定結果と、前記識別器による識別結果とを比較し、前記学習ステップでは、前記比較ステップによる比較の結果に基づいて、前記生成器と前記識別器との学習を進行させ、該学習は、前記生成器に、前記識別器が真と識別するデータを生成するように学習させ、前記識別機に、前記データの真偽を前記判定手段による判定結果と同じ識別を行うように学習させる学習方法。 (4) A learning method according to any one of (1) to (3) above, further comprising a comparison step, the learning model comprising a generator and a classifier, the generator generating the data, the classifier classifying the authenticity of the data, the comparison step comparing the judgment result with the classification result by the classifier, the learning step progressing the learning of the generator and the classifier based on the comparison result by the comparison step, the learning training training the generator to generate data that the classifier classifies as true, and the classifier to classify the authenticity of the data in the same way as the judgment result by the judgment means.

(5)上記(4)に記載の学習方法において、前記学習ステップでは、前記比較ステップによる比較の結果に基づく学習の事前に、教師データを用いて前記生成器の事前学習を進行させ、該事前学習は、前記生成器を、前記教師データを用いたニューラルネットワークとして動作させる学習方法。 (5) In the learning method described in (4) above, in the learning step, pre-learning of the generator is carried out using teacher data prior to learning based on the results of the comparison in the comparison step, and the pre-learning causes the generator to operate as a neural network using the teacher data.

(6)上記(4)に記載の学習方法において、前記学習ステップでは、前記比較ステップによる比較の結果に基づく学習の事前に、教師データを用いて前記生成器と前記識別器との事前学習を進行させ、該事前学習は、前記生成器に、前記識別器が真と識別するデータを生成するように学習させ、前記識別機に、前記教師データを真と識別するように学習させる学習方法。 (6) In the learning method described in (4) above, in the learning step, prior to learning based on the results of the comparison in the comparison step, pre-learning of the generator and the discriminator is carried out using training data, and the pre-learning is a learning method in which the generator is trained to generate data that the discriminator will identify as true, and the discriminator is trained to identify the training data as true.

(7)上記(4)乃至(6)のいずれか1つに記載の学習方法において、前記判定手段は、前記データに基づいて算出された値と、物理的法則に基づく値との誤差を算出し、前記学習は、前記生成器で所定数の2倍より多くのデータを生成し、該生成したデータのうち、前記誤差の少ない前記所定数のデータと、前記誤差の大きい前記所定数のデータを使用する学習方法。 (7) A learning method according to any one of (4) to (6) above, in which the determination means calculates the error between a value calculated based on the data and a value based on physical laws, and the learning generates more than twice the predetermined number of data in the generator, and of the generated data, the predetermined number of data with the smallest error and the predetermined number of data with the largest error are used.

(8)上記(6)に記載の学習方法において、前記教師データは、前記生成器が生成したデータのうち、前記判定手段により真と判定されたデータである学習方法。 (8) In the learning method described in (6) above, the teacher data is data generated by the generator that is determined to be true by the determination means.

(9)上記(6)に記載の学習方法において、前記条件が数値の範囲として与えられた場合に、該数値の範囲に含まれる所定の数の数値を条件として前記事前学習を行う学習方法。 (9) In the learning method described in (6) above, when the condition is given as a range of numerical values, the pre-learning is performed using a predetermined number of numerical values included in the range of numerical values as a condition.

(10)上記(1)乃至(9)のいずれか1つに記載の学習方法において、前記判定手段は、前記データが、基準値の上限値以下で、かつ、該基準値の下限値以上の場合に、該データを真と判定し、前記上限値は、前記学習モデルの学習の進行に伴って引き下げられ、前記下限値は、前記学習モデルの学習の進行に伴って引き上げられる学習方法。 (10) In the learning method described in any one of (1) to (9) above, the determination means determines that the data is true if the data is equal to or less than an upper limit of a reference value and equal to or greater than a lower limit of the reference value, and the upper limit is lowered as the learning of the learning model progresses, and the lower limit is raised as the learning of the learning model progresses.

(11)上記(1)乃至(9)のいずれか1つに記載の学習方法において、前記判定手段は、前記データと基準値との差を前記判定結果に含める学習方法。 (11) A learning method according to any one of (1) to (9) above, wherein the determination means includes in the determination result the difference between the data and a reference value.

(12)少なくとも1つの装置からなる情報処理システムであって、上記(1)乃至(11)のいずれか1つに記載の各ステップがなされるようにプログラムを実行可能な、少なくとも1つのプロセッサを備える情報処理システム。 (12) An information processing system consisting of at least one device, the information processing system having at least one processor capable of executing a program to perform each of the steps described in any one of (1) to (11) above.

(13)プログラムであって、少なくとも1つのコンピュータに、上記(1)乃至(11)のいずれか1つに記載の学習方法の各ステップを実行させるプログラム。 (13) A program that causes at least one computer to execute each step of the learning method described in any one of (1) to (11) above.

(14)学習モデルであって、上記(1)乃至(11)のいずれか1つに記載の学習方法の各ステップにより学習された学習モデル。
もちろん、この限りではない。
(14) A learning model that is trained by each step of the learning method described in any one of (1) to (11) above.
Of course, this is not the case.

最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Finally, although various embodiments of the present invention have been described, these are presented as examples and are not intended to limit the scope of the invention. The novel embodiments can be embodied in various other forms, and various omissions, substitutions, and modifications can be made without departing from the spirit of the invention. The embodiments and their modifications are within the scope and spirit of the invention, and are included in the scope of the invention and its equivalents as set forth in the claims.

1 :情報処理装置
11 :処理部
12 :記憶部
13 :一時記憶部
14 :外部装置接続部
15 :通信部
16 :通信バス
110 :学習装置
111 :条件受付部
112 :学習部
113 :出力部
114 :受付部
120 :判定装置
121 :判定部
1121 :生成器
1122 :識別器
1123 :比較部
1124 :提供部
1: Information processing device 11: Processing unit 12: Memory unit 13: Temporary memory unit 14: External device connection unit 15: Communication unit 16: Communication bus 110: Learning device 111: Condition reception unit 112: Learning unit 113: Output unit 114: Reception unit 120: Determination device 121: Determination unit 1121: Generator 1122: Classifier 1123: Comparison unit 1124: Provision unit

Claims (14)

情報処理システムが実行する学習方法であって、
出力ステップと、受付ステップと、学習ステップとを備え、
前記出力ステップでは、学習モデルが学習の過程で、与えられた条件に応じて、または前記条件を与えずに生成したデータを出力し、
前記受付ステップでは、判定手段による前記データに対する真偽の判定結果の入力を受け付け、
前記学習ステップでは、前記判定結果に基づいて前記学習モデルの学習を進行させる
学習方法。
A learning method executed by an information processing system, comprising:
The method includes an output step, a reception step, and a learning step,
In the output step, data generated by the learning model during the learning process, depending on a given condition or without the given condition, is output;
In the receiving step, an input of a determination result of whether the data is true or false by a determination means is received,
In the learning step, learning of the learning model is progressed based on the determination result.
請求項1に記載の学習方法において、
前記判定手段は、物理的法則に基づいて前記データの真偽を判定する
学習方法。
2. The learning method according to claim 1,
The determining means determines the authenticity of the data based on a physical law.
請求項2に記載の学習方法において、
前記判定手段は、前記データの前記条件に対する真偽を判定する
学習方法。
3. The learning method according to claim 2,
The determining means determines whether the condition of the data is true or false.
請求項1に記載の学習方法において、
比較ステップを備え、
前記学習モデルは、生成器と識別器とを備え、
前記生成器は、前記データを生成し、
前記識別器は、前記データの真偽を識別し、
前記比較ステップでは、前記判定結果と、前記識別器による識別結果とを比較し、
前記学習ステップでは、前記比較ステップによる比較の結果に基づいて、前記生成器と前記識別器との学習を進行させ、該学習は、
前記生成器に、前記識別器が真と識別するデータを生成するように学習させ、
前記識別機に、前記データの真偽を前記判定手段による判定結果と同じ識別を行うように学習させる
学習方法。
2. The learning method according to claim 1,
A comparison step is provided,
The learning model includes a generator and a classifier;
The generator generates the data;
The identifier identifies whether the data is genuine or false,
In the comparing step, the judgment result is compared with a classification result by the classifier;
In the learning step, learning of the generator and the discriminator is progressed based on a result of the comparison in the comparison step, and the learning includes:
training the generator to generate data that the classifier classifies as true;
a learning method for causing the classifier to learn to make the same classification as the judgment result of the judgment means as to whether the data is true or false.
請求項4に記載の学習方法において、
前記学習ステップでは、前記比較ステップによる比較の結果に基づく学習の事前に、教師データを用いて前記生成器の事前学習を進行させ、該事前学習は、
前記生成器を、前記教師データを用いたニューラルネットワークとして動作させる
学習方法。
5. The learning method according to claim 4,
In the learning step, prior to learning based on a result of the comparison in the comparison step, pre-learning of the generator is performed using teacher data, and the pre-learning includes:
The learning method comprises operating the generator as a neural network using the training data.
請求項4に記載の学習方法において、
前記学習ステップでは、前記比較ステップによる比較の結果に基づく学習の事前に、教師データを用いて前記生成器と前記識別器との事前学習を進行させ、該事前学習は、
前記生成器に、前記識別器が真と識別するデータを生成するように学習させ、
前記識別機に、前記教師データを真と識別するように学習させる
学習方法。
5. The learning method according to claim 4,
In the learning step, prior to learning based on a result of the comparison in the comparing step, pre-learning of the generator and the classifier is carried out using teacher data, and the pre-learning includes:
training the generator to generate data that the classifier classifies as true;
A learning method for training the classifier to classify the training data as true.
請求項4に記載の学習方法において、
前記判定手段は、前記データに基づいて算出された値と、物理的法則に基づく値との誤差を算出し、
前記学習は、前記生成器で所定数の2倍より多くのデータを生成し、該生成したデータのうち、前記誤差の少ない前記所定数のデータと、前記誤差の大きい前記所定数のデータを使用する
学習方法。
5. The learning method according to claim 4,
the determining means calculates an error between a value calculated based on the data and a value based on physical laws,
The learning method includes generating more than twice a predetermined number of pieces of data using the generator, and using, from the generated data, the predetermined number of pieces of data with a small error and the predetermined number of pieces of data with a large error.
請求項6に記載の学習方法において、
前記教師データは、前記生成器が生成したデータのうち、前記判定手段により真と判定されたデータである
学習方法。
7. The learning method according to claim 6,
The training data is data generated by the generator and determined to be true by the determination means.
請求項6に記載の学習方法において、
前記条件が数値の範囲として与えられた場合に、該数値の範囲に含まれる所定の数の数値を条件として前記事前学習を行う
学習方法。
7. The learning method according to claim 6,
a learning method in which, when the condition is given as a range of numerical values, the pre-learning is performed using a predetermined number of numerical values included in the range of numerical values as a condition.
請求項1に記載の学習方法において、
前記判定手段は、前記データが、基準値の上限値以下で、かつ、該基準値の下限値以上の場合に、該データを真と判定し、
前記上限値は、前記学習モデルの学習の進行に伴って引き下げられ、
前記下限値は、前記学習モデルの学習の進行に伴って引き上げられる
学習方法。
2. The learning method according to claim 1,
the determination means determines the data to be true when the data is equal to or less than an upper limit of a reference value and equal to or greater than a lower limit of the reference value;
The upper limit value is lowered as the learning of the learning model progresses,
The lower limit is increased as the learning of the learning model progresses.
請求項1に記載の学習方法において、
前記判定手段は、前記データと基準値との差を前記判定結果に含める
学習方法。
2. The learning method according to claim 1,
The determination means includes a difference between the data and a reference value in the determination result.
少なくとも1つの装置からなる情報処理システムであって、
請求項1乃至請求項11のいずれか1項に記載の各ステップがなされるようにプログラムを実行可能な、少なくとも1つのプロセッサを備える
情報処理システム。
An information processing system comprising at least one device,
An information processing system comprising at least one processor capable of executing a program to perform each step according to any one of claims 1 to 11.
プログラムであって、
少なくとも1つのコンピュータに、請求項1乃至請求項11のいずれか1項に記載の学習方法の各ステップを実行させる
プログラム。
A program,
A program for causing at least one computer to execute each step of the learning method according to any one of claims 1 to 11.
学習モデルであって、
請求項1乃至請求項11のいずれか1項に記載の学習方法の各ステップにより学習された
学習モデル。
A learning model,
A learning model trained by each step of the learning method according to any one of claims 1 to 11.
JP2022180816A 2022-11-11 2022-11-11 Learning method, information processing system, program and learning model Pending JP2024070372A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022180816A JP2024070372A (en) 2022-11-11 2022-11-11 Learning method, information processing system, program and learning model
PCT/JP2023/037717 WO2024101100A1 (en) 2022-11-11 2023-10-18 Learning method, information processing system, program, and learning model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022180816A JP2024070372A (en) 2022-11-11 2022-11-11 Learning method, information processing system, program and learning model

Publications (1)

Publication Number Publication Date
JP2024070372A true JP2024070372A (en) 2024-05-23

Family

ID=91032797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022180816A Pending JP2024070372A (en) 2022-11-11 2022-11-11 Learning method, information processing system, program and learning model

Country Status (2)

Country Link
JP (1) JP2024070372A (en)
WO (1) WO2024101100A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11966670B2 (en) * 2018-09-06 2024-04-23 Terrafuse, Inc. Method and system for predicting wildfire hazard and spread at multiple time scales
JP2020057172A (en) * 2018-10-01 2020-04-09 株式会社Preferred Networks Learning device, inference device and trained model
JP2022072113A (en) * 2020-10-29 2022-05-17 富士通株式会社 Machine learning program, machine learning method, and information processing apparatus

Also Published As

Publication number Publication date
WO2024101100A1 (en) 2024-05-16

Similar Documents

Publication Publication Date Title
US11544380B2 (en) Methods and apparatus for detecting whether a string of characters represents malicious activity using machine learning
US20200272909A1 (en) Systems and methods for operating a data center based on a generated machine learning pipeline
CN110532376B (en) Classifying text to determine a target type for selecting machine learning algorithm results
JP6560451B2 (en) Malignant communication log detection device, malignant communication log detection method, malignant communication log detection program
WO2019150079A1 (en) Methods and apparatus for identifying an impact of a portion of a file on machine learning classification of malicious content
Park et al. Combined oversampling and undersampling method based on slow-start algorithm for imbalanced network traffic
CN112054967A (en) Network traffic classification method and device, electronic equipment and storage medium
CN111435461B (en) Antagonistic input recognition using reduced accuracy deep neural networks
EP3916597B1 (en) Detecting malware with deep generative models
US20190266242A1 (en) Method and apparatus to classify and mitigate cyberbullying
JPWO2019092931A1 (en) Discriminant model generator, discriminant model generation method and discriminant model generation program
Zhang et al. Explainable artificial intelligence to detect image spam using convolutional neural network
US9286529B1 (en) Generating weights for biometric tokens in probabilistic matching systems
Tolciu et al. Analysis of patterns and similarities in service tickets using natural language processing
CN116569210A (en) Normalizing OCT image data
WO2024101100A1 (en) Learning method, information processing system, program, and learning model
CN112818114A (en) Information classification method, information detection method, information calculation device and storage medium
US11017055B2 (en) Hotspots for probabilistic model testing and cyber analysis
CN115713669A (en) Image classification method and device based on inter-class relation, storage medium and terminal
Luo et al. Focal loss based two-stage training for class imbalance network intrusion detection
JP2023154373A (en) Information processing apparatus
Chen et al. Federated learning for scam classification in small Indonesian language dataset: an initial study
Leevy et al. IoT attack prediction using big Bot-IoT data
EP3644218A1 (en) Target detection method and apparatus
Polvimoltham et al. Mass ratio variance majority undersampling and minority oversampling technique for class imbalance