JP7388606B1 - 予測方法、情報処理装置、及びプログラム - Google Patents
予測方法、情報処理装置、及びプログラム Download PDFInfo
- Publication number
- JP7388606B1 JP7388606B1 JP2023559850A JP2023559850A JP7388606B1 JP 7388606 B1 JP7388606 B1 JP 7388606B1 JP 2023559850 A JP2023559850 A JP 2023559850A JP 2023559850 A JP2023559850 A JP 2023559850A JP 7388606 B1 JP7388606 B1 JP 7388606B1
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- layer
- network model
- prediction
- coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000003062 neural network model Methods 0.000 claims abstract description 69
- 230000004913 activation Effects 0.000 claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 7
- 238000006243 chemical reaction Methods 0.000 claims description 37
- 238000006068 polycondensation reaction Methods 0.000 claims description 6
- 238000012644 addition polymerization Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 89
- 229920003002 synthetic resin Polymers 0.000 description 30
- 239000000057 synthetic resin Substances 0.000 description 30
- 230000008569 process Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 230000000052 comparative effect Effects 0.000 description 6
- -1 polyethylene terephthalate Polymers 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000018044 dehydration Effects 0.000 description 4
- 238000006297 dehydration reaction Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 239000000126 substance Substances 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000006482 condensation reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 229920000180 alkyd Polymers 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 229920000877 Melamine resin Polymers 0.000 description 1
- 239000004640 Melamine resin Substances 0.000 description 1
- 239000004952 Polyamide Substances 0.000 description 1
- 239000004698 Polyethylene Substances 0.000 description 1
- 239000004721 Polyphenylene oxide Substances 0.000 description 1
- 239000004743 Polypropylene Substances 0.000 description 1
- 239000004793 Polystyrene Substances 0.000 description 1
- 229920001328 Polyvinylidene chloride Polymers 0.000 description 1
- 229920001807 Urea-formaldehyde Polymers 0.000 description 1
- 239000002253 acid Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 125000002887 hydroxy group Chemical group [H]O* 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000005011 phenolic resin Substances 0.000 description 1
- 229920002239 polyacrylonitrile Polymers 0.000 description 1
- 229920002647 polyamide Polymers 0.000 description 1
- 239000004417 polycarbonate Substances 0.000 description 1
- 229920000515 polycarbonate Polymers 0.000 description 1
- 229920000728 polyester Polymers 0.000 description 1
- 229920000570 polyether Polymers 0.000 description 1
- 229920000573 polyethylene Polymers 0.000 description 1
- 229920000139 polyethylene terephthalate Polymers 0.000 description 1
- 239000005020 polyethylene terephthalate Substances 0.000 description 1
- 239000002861 polymer material Substances 0.000 description 1
- 229920000193 polymethacrylate Polymers 0.000 description 1
- 229920001155 polypropylene Polymers 0.000 description 1
- 229920002223 polystyrene Polymers 0.000 description 1
- 229920001343 polytetrafluoroethylene Polymers 0.000 description 1
- 239000004810 polytetrafluoroethylene Substances 0.000 description 1
- 229920002689 polyvinyl acetate Polymers 0.000 description 1
- 239000011118 polyvinyl acetate Substances 0.000 description 1
- 239000004800 polyvinyl chloride Substances 0.000 description 1
- 229920000915 polyvinyl chloride Polymers 0.000 description 1
- 239000005033 polyvinylidene chloride Substances 0.000 description 1
- 238000012628 principal component regression Methods 0.000 description 1
- 230000009291 secondary effect Effects 0.000 description 1
- 229920002050 silicone resin Polymers 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/10—Analysis or design of chemical reactions, syntheses or processes
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/30—Prediction of properties of chemical compounds, compositions or mixtures
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/70—Machine learning, data mining or chemometrics
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Chemical & Material Sciences (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Crystallography & Structural Chemistry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Chemical Kinetics & Catalysis (AREA)
- Analytical Chemistry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
予測対象に係る実績データに基づきニューラルネットワークモデルを訓練するステップと、
前記ニューラルネットワークモデルにより、前記予測対象に係る複数の説明因子に基づき、前記予測対象に係る目的因子を予測するステップと、
を含み、
前記ニューラルネットワークモデルは、入力層と中間層と出力層とを含み、前記中間層に係る活性化関数の係数は、前記出力層に係る活性化関数の係数よりも大きい。
前記制御部は、
予測対象に係る実績データに基づきニューラルネットワークモデルを訓練し、
前記ニューラルネットワークモデルにより、前記予測対象に係る複数の説明因子に基づき、前記予測対象に係る目的因子を予測し、
前記ニューラルネットワークモデルは、入力層と中間層と出力層とを含み、前記中間層に係る活性化関数の係数は、前記出力層に係る活性化関数の係数よりも大きい。
命令を記憶した非一時的なコンピュータ読取可能記録媒体であって、前記命令は、プロセッサによって実行された時に、プロセッサに、
予測対象に係る実績データに基づきニューラルネットワークモデルを訓練することと、
前記ニューラルネットワークモデルにより、前記予測対象に係る複数の説明因子に基づき、前記予測対象に係る目的因子を予測することと、
を実行させ、
前記ニューラルネットワークモデルは、入力層と中間層と出力層とを含み、前記中間層に係る活性化関数の係数は、前記出力層に係る活性化関数の係数よりも大きい。
次に図1を参照して、情報処理装置10の各構成について詳細に説明する。情報処理装置10は、ユーザによって使用される任意の装置である。例えばパーソナルコンピュータ、サーバコンピュータ、汎用の電子機器、又は専用の電子機器が、情報処理装置10として採用可能である。
次に図2を参照して、本実施形態に係る情報処理装置10の動作について説明する。
1.中間素子数
・出力素子数が1の場合、1.1倍―3倍
・出力素子数が2の場合、1.1倍―4.5倍
・出力素子数が3の場合、1.1倍―6倍
2.シグモイド関数の係数
中間層:0.70―0.80
出力層:0.095―0.15
3.学習回数
10万回―20万回(学習データが50―100組程度の場合)
11 制御部
12 記憶部
13 入力部
14 出力部
入力層 100
中間層 200
出力層 300
素子 101―104、201―206、301―302
グラフ 210、310
Claims (7)
- 情報処理装置が実行する予測方法であって、
予測対象に係る実績データに基づきニューラルネットワークモデルを訓練するステップと、
前記ニューラルネットワークモデルにより、前記予測対象に係る複数の説明因子に基づき、前記予測対象に係る目的因子を予測するステップと、
を含み、
前記ニューラルネットワークモデルは、入力層と中間層と出力層とを含み、前記中間層に係る活性化関数の係数は、前記出力層に係る活性化関数の係数よりも大きい、方法。 - 請求項1又は2に記載の予測方法であって、前記予測対象は、重縮合反応及び付加重合反応を含む予測方法。
- 請求項1又は2に記載の予測方法であって、前記中間層の素子数は、前記説明因子の数の1.1倍以上6倍未満である予測方法。
- 請求項1又は2に記載の予測方法であって、前記入力層に入力される説明因子の数値範囲は、0以上かつ1以下であり、前記出力層から出力される目的因子の数値範囲は0.2以上かつ0.8以下である予測方法。
- 制御部を備える情報処理装置であって、
前記制御部は、
予測対象に係る実績データに基づきニューラルネットワークモデルを訓練し、
前記ニューラルネットワークモデルにより、前記予測対象に係る複数の説明因子に基づき、前記予測対象に係る目的因子を予測し、
前記ニューラルネットワークモデルは、入力層と中間層と出力層とを含み、前記中間層に係る活性化関数の係数は、前記出力層に係る活性化関数の係数よりも大きい、情報処理装置。 - 情報処理装置が実行するプログラムであって、コンピュータに、
予測対象に係る実績データに基づきニューラルネットワークモデルを訓練することと、
前記ニューラルネットワークモデルにより、前記予測対象に係る複数の説明因子に基づき、前記予測対象に係る目的因子を予測することと、
を実行させ、
前記ニューラルネットワークモデルは、入力層と中間層と出力層とを含み、前記中間層に係る活性化関数の係数は、前記出力層に係る活性化関数の係数よりも大きい、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022212704 | 2022-12-28 | ||
JP2022212704 | 2022-12-28 | ||
PCT/JP2023/019011 WO2024142427A1 (ja) | 2022-12-28 | 2023-05-22 | 予測方法、情報処理装置、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7388606B1 true JP7388606B1 (ja) | 2023-11-29 |
Family
ID=88917854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023559850A Active JP7388606B1 (ja) | 2022-12-28 | 2023-05-22 | 予測方法、情報処理装置、及びプログラム |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4421687A1 (ja) |
JP (1) | JP7388606B1 (ja) |
CN (1) | CN117882138A (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02287861A (ja) * | 1989-04-28 | 1990-11-27 | Victor Co Of Japan Ltd | ニューラルネットワーク |
JPH04266153A (ja) * | 1991-02-20 | 1992-09-22 | Honda Motor Co Ltd | ニューラルネットワーク |
JPH0991264A (ja) * | 1995-09-20 | 1997-04-04 | Hitachi Medical Corp | ニューラルネットワーク構造最適化装置ならびに方法 |
JPH11232244A (ja) * | 1998-02-10 | 1999-08-27 | Hitachi Ltd | ニューラルネットワーク、その学習方法およびニューロ・ファジィ制御装置 |
-
2023
- 2023-05-22 CN CN202380013163.0A patent/CN117882138A/zh active Pending
- 2023-05-22 JP JP2023559850A patent/JP7388606B1/ja active Active
- 2023-05-22 EP EP23821471.2A patent/EP4421687A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02287861A (ja) * | 1989-04-28 | 1990-11-27 | Victor Co Of Japan Ltd | ニューラルネットワーク |
JPH04266153A (ja) * | 1991-02-20 | 1992-09-22 | Honda Motor Co Ltd | ニューラルネットワーク |
JPH0991264A (ja) * | 1995-09-20 | 1997-04-04 | Hitachi Medical Corp | ニューラルネットワーク構造最適化装置ならびに方法 |
JPH11232244A (ja) * | 1998-02-10 | 1999-08-27 | Hitachi Ltd | ニューラルネットワーク、その学習方法およびニューロ・ファジィ制御装置 |
Non-Patent Citations (4)
Title |
---|
岸田 悟 ほか,階層型ニューラルネットワークのボタン選定問題への適用,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,1993年03月19日,vol. 92, no. 522,pp.97-102 |
岸田 悟 ほか: "階層型ニューラルネットワークのボタン選定問題への適用", 電子情報通信学会技術研究報告, vol. 92, no. 522, JPN6023028955, 19 March 1993 (1993-03-19), JP, pages 97 - 102, ISSN: 0005176101 * |
渡邊 栄治 ほか,講演における聴講者の動作の分析(第3報),電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会 The Institute of Ele,2019年01月17日,vol. 118, no. 420, LOIS2018-45,pp.21-26 |
渡邊 栄治 ほか: "講演における聴講者の動作の分析(第3報)", 電子情報通信学会技術研究報告, vol. vol. 118, no. 420, LOIS2018-45, JPN6023028954, 17 January 2019 (2019-01-17), JP, pages 21 - 26, ISSN: 0005176100 * |
Also Published As
Publication number | Publication date |
---|---|
EP4421687A1 (en) | 2024-08-28 |
CN117882138A (zh) | 2024-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10489688B2 (en) | Personalized digital image aesthetics in a digital medium environment | |
WO2021091681A1 (en) | Adversarial training of machine learning models | |
WO2022110640A1 (zh) | 一种模型优化方法、装置、计算机设备及存储介质 | |
CN110597878A (zh) | 一种多模态数据的跨模态检索方法、装置、设备及介质 | |
US20190073587A1 (en) | Learning device, information processing device, learning method, and computer program product | |
US20220114479A1 (en) | Systems and methods for automatic mixed-precision quantization search | |
US20230188788A1 (en) | Method for dynamically training a system to determine an age rating of media content | |
JP7388606B1 (ja) | 予測方法、情報処理装置、及びプログラム | |
CN110009048B (zh) | 一种神经网络模型的构建方法以及设备 | |
CN115375698A (zh) | 医学图像分割方法、装置、电子设备及存储介质 | |
CN111382619A (zh) | 图片推荐模型的生成、图片推荐方法、装置、设备及介质 | |
WO2024142427A1 (ja) | 予測方法、情報処理装置、及びプログラム | |
TW202427285A (zh) | 預測方法、資訊處理裝置、以及程式 | |
WO2024176478A1 (ja) | 重縮合反応に係る予測を行う方法、情報処理装置、及びプログラム | |
JP7388607B1 (ja) | 予測モデルの学習過程の評価を支援する方法、情報処理装置、及びプログラム | |
JP7242595B2 (ja) | 学習装置、推論装置、学習方法及び推論方法 | |
Liu et al. | Accurate on-line support vector regression incorporated with compensated prior knowledge | |
CN117957615A (zh) | 进行与加聚反应有关的预测的方法、信息处理装置以及程序 | |
Chakrabortty | Robust Semi-Parametric Inference in Semi-Supervised Settings | |
WO2023181818A1 (ja) | 色素材料の探索方法、情報処理装置、及び非一時的なコンピュータ読取可能記録媒体 | |
JP7235158B1 (ja) | 賦形材料の探索方法、情報処理装置、及びプログラム | |
Chen et al. | Neural ordinary differential gray algorithm to forecasting models of controlled systems | |
JP7255739B1 (ja) | ハードコート材料の探索方法、情報処理装置、及びプログラム | |
CN113222020B (zh) | 一种基于数据转换和知识蒸馏的域增量学习方法 | |
CN117836860A (zh) | 进行与缩聚反应有关的预测的方法、信息处理装置以及程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230927 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231030 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7388606 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |