JP2024056120A - ニューラルネットワーク変換方法、電子デバイス及び記憶媒体 - Google Patents
ニューラルネットワーク変換方法、電子デバイス及び記憶媒体 Download PDFInfo
- Publication number
- JP2024056120A JP2024056120A JP2023097307A JP2023097307A JP2024056120A JP 2024056120 A JP2024056120 A JP 2024056120A JP 2023097307 A JP2023097307 A JP 2023097307A JP 2023097307 A JP2023097307 A JP 2023097307A JP 2024056120 A JP2024056120 A JP 2024056120A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- decision tree
- present
- layer
- decision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 205
- 238000000034 method Methods 0.000 title claims abstract description 133
- 238000003860 storage Methods 0.000 title claims abstract description 36
- 238000006243 chemical reaction Methods 0.000 title abstract description 8
- 238000003066 decision tree Methods 0.000 claims abstract description 172
- 230000004913 activation Effects 0.000 claims abstract description 36
- 238000004364 calculation method Methods 0.000 claims abstract description 19
- 238000004590 computer program Methods 0.000 claims description 54
- 238000010606 normalization Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000013138 pruning Methods 0.000 claims description 10
- 230000001131 transforming effect Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 38
- 230000008569 process Effects 0.000 description 36
- 238000001994 activation Methods 0.000 description 35
- 230000006870 function Effects 0.000 description 28
- 238000012545 processing Methods 0.000 description 28
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000001537 neural effect Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 241001272720 Medialuna californiensis Species 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000011426 transformation method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 235000000332 black box Nutrition 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
前回分岐されたノードに対して毎回前記葉分岐を行い、各前記葉分岐は1つの有効フィルタに対応し、前記有効フィルタの対応順序は、前記ニューラルネットワークの同一層の有効フィルタの順番及び前記ニューラルネットワークの異なる層の順番に従うことを含む。
前記コンピュータプログラム命令が前記プロセッサによって実行されると、前記電子デバイスをトリガして第2観点の方法ステップを実行する電子デバイスを提供する。
本発明の実施例の方法によると、ニューラルネットワークを決定木に変換し、決定木に基づいてニューラルネットワークを解釈することで、ニューラルネットワークのブラックボックス問題を解決する。また、ニューラルネットワークに等価の決定木は、メモリ要求の増加によるニューラルネットワークの計算コストを有効に減少することができる。
以下の類型の残差ニューラルネットワーク(residual neural network)を例とする。
ニューラルネットワークの正規化層は線形であるため、且つトレーニング後、これらはそれぞれ活性化前又は活性化後の正規化後又は前の線形層に埋め込まれることができる。そのため、一実施例において、ニューラルネットワークを決定木表現に変換する過程において、正規化層については、個別の変換をする必要がない。
をxに作用する直接不等式に変換することで得られたものとする。xはスカラーであるため、決定ルールは、特定の回帰y=x2完成させるために用いられる。各葉において、これまでの決定に基づいて、領域302の矩形で表される線形関数を適用する。
[発明の内容]
[発明が解決しようとする課題]
前回分岐されたノードに対して毎回前記葉分岐を行い、各前記葉分岐は1つのフィルタに対応し、前記フィルタの対応順序は、前記ニューラルネットワークの同一層のフィルタの順番及び前記ニューラルネットワークの異なる層の順番に従うことを含む。
前記コンピュータプログラム命令が前記プロセッサによって実行されると、前記電子デバイスをトリガして第2観点の方法ステップを実行する電子デバイスを提供する。
[発明の効果]
本発明の実施例の方法によると、ニューラルネットワークを決定木に変換し、決定木に基づいてニューラルネットワークを解釈することで、ニューラルネットワークのブラックボックス問題を解決する。また、ニューラルネットワークに等価の決定木は、メモリ要求の増加によるニューラルネットワークの計算コストを有効に減少することができる。
Wiをニューラルネットワークの第i層の重み行列と仮定する。σを任意の区分的線形活性化関数とし、且つをニューラルネットワークの入力とする。その後、フィードフォワードニューラルネットワークの出力と中間特徴は、以下のように表すことができる。
ニューラルネットワークの正規化層は線形であるため、且つトレーニング後、これらはそれぞれ活性化前又は活性化後の正規化後又は前の線形層に埋め込まれることができる。そのため、一実施例において、ニューラルネットワークを決定木表現に変換する過程において、正規化層については、個別の変換をする必要がない。
Claims (11)
- ニューラルネットワークの変換方法であって、前記方法は、端末デバイスに適用され、
決定木を初期化し、前記決定木のルートを設定することと、
ニューラルネットワークの有効フィルタを決定ルールとし、前記決定木のルートから葉分岐を行い、前記決定木が前記ニューラルネットワークの全ての有効フィルタをカバーするまで前記葉分岐を行うこととを含み、
前記ニューラルネットワークは、区分的線形活性化を有するニューラルネットワークである、ことを特徴とするニューラルネットワークの変換方法。 - 前記決定木のルートから葉分岐を行うことは、
前回分岐されたノードに対して毎回前記葉分岐を行い、各前記葉分岐は1つの有効フィルタに対応し、前記有効フィルタの対応順序は、前記ニューラルネットワークの同一層の有効フィルタの順番及び前記ニューラルネットワークの異なる層の順番に従うことを含む、ことを特徴とする請求項1に記載の方法。 - 全結合層において、有効行列を前記決定ルールとする、ことを特徴とする請求項1に記載の方法。
- スキップ接続層において、残差有効行列を前記決定ルールとする、ことを特徴とする請求項1に記載の方法。
- 正規化層において、前記正規化層は、活性化前又は活性化後の正規化の後又は前の線形層にそれぞれ埋め込まれる、ことを特徴とする請求項1に記載の方法。
- 畳み込み層において、有効畳み込みを前記決定ルールとする、ことを特徴とする請求項1に記載の方法。
- 前記方法は、更に、
前記決定木の違反ルール及び/又は冗長ルールに基づいて、前記決定木に対して無損失剪定を行うこと、
及び/または
前記ニューラルネットワークのトレーニング期間に実現したカテゴリに基づいて、前記決定木に対して無損失剪定を行うことを含む、ことを特徴とする請求項1~6のいずれか一項に記載のニューラルネットワークの変換方法。 - ニューラルネットワークの計算方法であって、前記方法は、端末デバイスに適用され、
計算に用いられるニューラルネットワークを取得することと、
請求項1~6のいずれか一項に記載の方法に基づいて、前記ニューラルネットワークを決定木に変換することと、
前記決定木を用いて計算することとを含む、ことを特徴とするニューラルネットワークの計算方法。 - 電子デバイスであって、
前記電子デバイスは、コンピュータプログラム命令を格納するためのメモリ及びコンピュータプログラム命令を実行するためのプロセッサを含み、
前記コンピュータプログラム命令が前記プロセッサによって実行されると、前記電子デバイスをトリガして請求項1~6のいずれか一項に記載の方法ステップを実行する、ことを特徴とする電子デバイス。 - 電子デバイスであって、
前記電子デバイスは、コンピュータプログラム命令を格納するためのメモリ及びコンピュータプログラム命令を実行するためのプロセッサを含み、
前記コンピュータプログラム命令が前記プロセッサによって実行されると、前記電子デバイスをトリガして請求項8に記載の方法ステップを実行する、ことを特徴とする電子デバイス。 - コンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ読み取り可能な記憶媒体にコンピュータプログラムが格納され、コンピュータで実行されると、コンピュータが請求項1~6のいずれか一項に記載の方法を実行する、ことを特徴とするコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/962,559 US20240119288A1 (en) | 2022-10-10 | 2022-10-10 | Method for converting neural network, electronic device and storage medium |
US17/962,559 | 2022-10-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7375250B1 JP7375250B1 (ja) | 2023-11-07 |
JP2024056120A true JP2024056120A (ja) | 2024-04-22 |
Family
ID=86780279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023097307A Active JP7375250B1 (ja) | 2022-10-10 | 2023-06-13 | ニューラルネットワーク変換方法、電子デバイス及び記憶媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240119288A1 (ja) |
JP (1) | JP7375250B1 (ja) |
CN (1) | CN116306876A (ja) |
WO (1) | WO2024077651A1 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210019635A1 (en) * | 2019-07-15 | 2021-01-21 | Ramot At Tel Aviv University | Group specific decision tree |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201810736D0 (en) * | 2018-06-29 | 2018-08-15 | Microsoft Technology Licensing Llc | Neural trees |
CN110784760B (zh) * | 2019-09-16 | 2020-08-21 | 清华大学 | 一种视频播放方法、视频播放器及计算机存储介质 |
CN111898692A (zh) * | 2020-08-05 | 2020-11-06 | 清华大学 | 神经网络到决策树的转换方法、存储介质及电子设备 |
CN113489751B (zh) * | 2021-09-07 | 2021-12-10 | 浙江大学 | 一种基于深度学习的网络流量过滤规则转化方法 |
-
2022
- 2022-10-10 US US17/962,559 patent/US20240119288A1/en active Pending
- 2022-10-14 CN CN202211262230.6A patent/CN116306876A/zh active Pending
- 2022-10-20 WO PCT/CN2022/126361 patent/WO2024077651A1/zh unknown
-
2023
- 2023-06-13 JP JP2023097307A patent/JP7375250B1/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210019635A1 (en) * | 2019-07-15 | 2021-01-21 | Ramot At Tel Aviv University | Group specific decision tree |
Non-Patent Citations (1)
Title |
---|
佐々木 駿也 ほか: "多分木によるニューラルネットワークのホワイトボックス化", 電子情報通信学会技術研究報告 VOL.119 NO.328, JPN6023035143, 29 November 2019 (2019-11-29), JP, pages 79 - 84, ISSN: 0005139872 * |
Also Published As
Publication number | Publication date |
---|---|
JP7375250B1 (ja) | 2023-11-07 |
WO2024077651A1 (zh) | 2024-04-18 |
CN116306876A (zh) | 2023-06-23 |
US20240119288A1 (en) | 2024-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Elhassouny et al. | Trends in deep convolutional neural Networks architectures: a review | |
JP6794593B2 (ja) | 多階層ニューラルネットワークモデルを最適化して適用する方法及び装置、及び記憶媒体 | |
KR20200088475A (ko) | 신경망의 기능적 부분망의 동시 훈련 | |
CN113705864A (zh) | 基于VMD-CNN-BiLSTM-ATT混合模型的气象干旱预测方法及装置 | |
Ponnapalli et al. | A formal selection and pruning algorithm for feedforward artificial neural network optimization | |
CN113841159A (zh) | 由电子装置在神经网络中的特定层执行卷积运算的方法及其电子装置 | |
Melin et al. | Fuzzy logic in intelligent system design: Theory and applications | |
Chen | Applications of XAI for forecasting in the manufacturing domain | |
Lin et al. | Canonical piecewise-linear networks | |
CN114386658A (zh) | 湖库水质监测预警方法、装置、存储介质及电子设备 | |
CN117273105A (zh) | 一种针对神经网络模型的模块构建方法及装置 | |
Das et al. | Towards crafting optimal functional link artificial neural networks with RAO algorithms for stock closing prices prediction | |
JP2024056120A (ja) | ニューラルネットワーク変換方法、電子デバイス及び記憶媒体 | |
CN112712695B (zh) | 一种交通流预测方法、装置及存储介质 | |
CN106407932A (zh) | 基于分数阶微积分与广义逆神经网络的手写数字识别方法 | |
Rahman et al. | Face sketch recognition: an application of Z-numbers | |
Mithani et al. | A modified BPN approach for stock market prediction | |
CN117973517A (zh) | 一种基于启发式信息搜索的知识图谱链接预测方法 | |
Ben-Bright et al. | Taxonomy and a theoretical model for feedforward neural networks | |
Cho et al. | Operator-learning-inspired modeling of neural ordinary differential equations | |
CN114708110A (zh) | 续保行为预测模型的联合训练方法、装置及电子设备 | |
Petrovic et al. | Framework for efficient resource planning in pandemic crisis | |
CN110110906B (zh) | 一种基于Efron近似优化的生存风险建模方法 | |
Baareh | Optimizing Software Effort Estimation Models Using Back-Propagation Versus Radial Base Function Networks | |
El Yamani et al. | A two-group epidemiological model: Stability analysis and numerical simulation using neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230613 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230620 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7375250 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |