JP2020027611A - ニューラルネットワークのためのデータ処理方法および装置 - Google Patents
ニューラルネットワークのためのデータ処理方法および装置 Download PDFInfo
- Publication number
- JP2020027611A JP2020027611A JP2019125658A JP2019125658A JP2020027611A JP 2020027611 A JP2020027611 A JP 2020027611A JP 2019125658 A JP2019125658 A JP 2019125658A JP 2019125658 A JP2019125658 A JP 2019125658A JP 2020027611 A JP2020027611 A JP 2020027611A
- Authority
- JP
- Japan
- Prior art keywords
- data
- function
- current data
- input
- output data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 43
- 238000003672 processing method Methods 0.000 title claims abstract description 27
- 238000006243 chemical reaction Methods 0.000 claims abstract description 68
- 230000004913 activation Effects 0.000 claims abstract description 49
- 238000000034 method Methods 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims abstract description 34
- 238000013473 artificial intelligence Methods 0.000 claims description 52
- 238000004590 computer program Methods 0.000 claims description 12
- 238000010276 construction Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 230
- 230000015654 memory Effects 0.000 description 19
- 238000012549 training Methods 0.000 description 18
- 238000003062 neural network model Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000007667 floating Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000012886 linear function Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005315 distribution function Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/483—Computations with numbers represented by a non-linear combination of denominational numbers, e.g. rational numbers, logarithmic number system or floating-point numbers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Nonlinear Science (AREA)
- Neurology (AREA)
- Devices For Executing Special Programs (AREA)
- Stored Programmes (AREA)
Abstract
Description
x=M×2E
式中。式中、Mは仮数部を示し、正数であってもよく、負数であってもよい。Eは指数部を示す。また例えば、
x=(−1)s×M×2E
式中、Sは符号ビットを示し、すなわち正または負である。この場合、仮数部Mは正数であってよい。
2x=M×2E+1
または
(−1)s×M×2E+1
である。これで、大量のコンピューティングプロセスを減らせ、効率よく処理することができる。
Tanh(x)=2×sigmoid(2x)−1
である。
である。
x/2=M×2E−1
または
(−1)s×M×2E−1
である。したがって、浮動小数点数の割り算が不要となり、さらに処理効率を高めることができる。
tanh(−x)=−tanh(x)
である。これで分かるように、tanh関数のルックアップテーブルの実施には完全なルックアップテーブルを必要としない。この場合、tanh関数に対応するルックアップテーブルには、正数入力範囲および/または負数入力範囲が含まれることが可能である。したがって、格納空間をさらに節約するために、実行主体には単にルックアップテーブルの正数部分(または負数部分)のみを格納することができる。負数部分(または正数部分)は、正数部分(または負数部分)を通じて計算して得ることができる。
Claims (19)
- 少なくとも1つの活性化関数が設けられているニューラルネットワークのためのデータ処理方法であって、
現在のデータを取得する活性化関数が目的関数であることに応じて、前記目的関数とプリセット関数との間の変換関係に基づいて、現在のデータを前記プリセット関数の入力データに変換するステップと、
前記プリセット関数に対応するルックアップテーブルにおいて、前記入力データを入力とした前記プリセット関数の第1出力データをルックアップするステップと、
前記変換関係と前記第1出力データに基づいて、変換により現在のデータを入力とした前記目的関数の第2出力データを取得するステップと、
前記第2出力データを出力するステップと、
を含むニューラルネットワークのためのデータ処理方法。 - 前記目的関数にはsigmoid非線形関数が含まれ、前記プリセット関数にはtanh双曲線正接関数が含まれ、
前記目的関数とプリセット関数との間の変換関係に基づいて、現在のデータを前記プリセット関数の入力データに変換するステップは、
前記プリセット関数の入力データとして、現在のデータを2で割った商を確定することを含む請求項1に記載の方法。 - 現在のデータが、2を基数とする、仮数部と指数部とからなる表現方式を有する浮動小数点数である場合、前記現在のデータを2で割った商を確定することは、
現在のデータの指数部から1を引くことで、現在のデータを2で割った商を得ることを含む請求項2に記載の方法。 - 前記変換関係と前記第1出力データに基づいて、変換により現在のデータを入力とした前記目的関数の第2出力データを取得するステップは、
前記第1出力データと1を合計して合計値を2で割った商を確定し、現在のデータを入力とした前記目的関数の第2出力データとすることを含む請求項2に記載の方法。 - 合計値が、2を基数とする、仮数部と指数部とからなる表現方式を有する浮動小数点数である場合、前記合計値を2で割った商を確定することは、
合計値の指数部から1を引くことで、合計値を2で割った商を得ることを含む請求項4に記載の方法。 - 前記プリセット関数に対応するルックアップテーブルには正数入力範囲および/または負数入力範囲が含まれる請求項2〜5のいずれか一項に記載の方法。
- 前記目的関数にはtanh双曲線正接関数が含まれ、前記プリセット関数にはsigmoid非線形関数が含まれ、
前記目的関数とプリセット関数との間の変換関係に基づいて、現在のデータを前記プリセット関数の入力データに変換するステップは、
前記プリセット関数の入力データとして、現在のデータと2の積を確定することを含む請求項1に記載の方法。 - 現在のデータが、2を基数とする、仮数部と指数部とからなる表現方式を有する浮動小数点数である場合、前記現在のデータと2の積を確定することは、
現在のデータの指数部に1を足すことで、現在のデータと2の積を得ることを含む請求項7に記載の方法。 - 前記変換関係と前記第1出力データに基づいて、変換により現在のデータを入力とした前記目的関数の第2出力データを取得するステップは、
前記第1出力データと2の積を確定し、かつ積から1を引いた差を、現在のデータを入力とした前記目的関数の第2出力データとすることを含む請求項7に記載の方法。 - 前記第1出力データが、2を基数とする、仮数部と指数部とからなる表現方式を有する浮動小数点数である場合、前記第1出力データと2の積を確定することは、
前記第1出力データの指数部に1を足すことで、前記第1出力データと2の積を得ることを含む請求項9に記載の方法。 - 少なくとも1つの活性化関数が設けられているニューラルネットワークのためのデータ処理装置であって、
現在のデータを取得する活性化関数が目的関数であることに応じて、前記目的関数とプリセット関数との間の変換関係に基づいて、現在のデータを前記プリセット関数の入力データに変換するように構成される第1変換ユニットと、
前記プリセット関数に対応するルックアップテーブルにおいて、前記入力データを入力とした前記プリセット関数の第1出力データをルックアップするように構成されるルックアップユニットと、
前記変換関係と前記第1出力データに基づいて、変換により現在のデータを入力とした前記目的関数の第2出力データを取得するように構成される第2変換ユニットと、
前記第2出力データを出力するように構成される出力ユニットと、を含むニューラルネットワークのためのデータ処理装置。 - 前記目的関数にはsigmoid非線形関数が含まれ、前記プリセット関数にはtanh双曲線正接関数が含まれ、
前記第1変換ユニットは、前記プリセット関数の入力データとして、現在のデータを2で割った商を確定するように構成される請求項11に記載の装置。 - 現在のデータが、2を基数とする、仮数部と指数部とからなる表現方式を有する浮動小数点数である場合、前記第1変換ユニットはさらに、現在のデータの指数部から1を引くことで、現在のデータを2で割った商を得る請求項12に記載の装置。
- 前記第2変換ユニットは、前記第1出力データと1を合計し、かつ合計値を2で割った商を確定し、現在のデータを入力とした前記目的関数の第2出力データとするように構成される請求項12に記載の装置。
- 合計値が、2を基数とする、仮数部と指数部とからなる表現方式を有する浮動小数点数である場合、前記第2変換ユニットはさらに、合計値の指数部から1を引くことで、合計値を2で割った商を得るように構成される請求項14に記載の装置。
- 前記プリセット関数に対応するルックアップテーブルには正数入力範囲および/または負数入力範囲が含まれる請求項12〜15のいずれか一項に記載の装置。
- 1つまたは複数のプログラムが格納されている記憶部材と、
実行すべき命令に従って命令スケジューリングを行うように構成されるスケジューリング部材と、
前記スケジューリング部材から発された命令を受信し、対応するプログラムを実行し、および/または前記スケジューリング部材から発された命令に従ってサブ命令を生成し、かつ生成したサブ命令を対応する専用実行部材に送信するように構成される少なくとも1つの汎用実行部材と、
前記少なくとも1つの汎用実行部材から送信されたサブ命令を受信し、対応するプログラムを実行するように構成される少なくとも1つの専用実行部材であって、1つまたは複数の専用実行部材は、対応するプログラムを実行する際に請求項1〜10のいずれか一項に記載の方法を実現する少なくとも1つの専用実行部材と、を備える人工知能チップ。 - コンピュータプログラムが格納されているコンピュータ可読媒体であって、
前記コンピュータプログラムが実行部材により実行される際に請求項1〜10のいずれか一項に記載の方法を実現するコンピュータ可読媒体。 - プロセッサ、記憶装置および少なくとも1つの請求項17に記載の人工知能チップを備える電子機器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810906496.7A CN110826706B (zh) | 2018-08-10 | 2018-08-10 | 用于神经网络的数据处理方法和装置 |
CN201810906496.7 | 2018-08-10 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020027611A true JP2020027611A (ja) | 2020-02-20 |
Family
ID=69405097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019125658A Pending JP2020027611A (ja) | 2018-08-10 | 2019-07-05 | ニューラルネットワークのためのデータ処理方法および装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11651198B2 (ja) |
JP (1) | JP2020027611A (ja) |
KR (1) | KR102420661B1 (ja) |
CN (1) | CN110826706B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113283921A (zh) * | 2020-02-19 | 2021-08-20 | 华为技术有限公司 | 一种业务数据的处理方法、装置及云服务器 |
CN112200299B (zh) * | 2020-09-09 | 2024-04-12 | 星宸科技股份有限公司 | 神经网络计算装置、数据处理方法及装置 |
CN114690624A (zh) * | 2020-12-25 | 2022-07-01 | 佛山市顺德区美的电热电器制造有限公司 | 工作模式确定方法、系统、设备、存储介质 |
CN113379031B (zh) * | 2021-06-01 | 2023-03-17 | 北京百度网讯科技有限公司 | 神经网络的处理方法、装置、电子设备和存储介质 |
CN113657588B (zh) * | 2021-08-19 | 2023-08-18 | 山东云海国创云计算装备产业创新中心有限公司 | 一种实现光学神经网络的方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003067182A (ja) * | 2001-08-28 | 2003-03-07 | Matsushita Electric Works Ltd | 演算装置および演算方法 |
US20160179434A1 (en) * | 2014-12-19 | 2016-06-23 | Intel Corporation | Storage device and method for performing convolution operations |
WO2018100920A1 (ja) * | 2016-12-01 | 2018-06-07 | ソニーセミコンダクタソリューションズ株式会社 | 演算装置、演算方法及びコンピュータプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2199588A1 (en) * | 1997-03-10 | 1998-09-10 | Efrem Hoffman | Hierarchical data matrix pattern recognition and identification system |
AU2013237728A1 (en) * | 2005-11-15 | 2013-10-24 | Bernadette Garner | Method for Training Neural Networks |
AU2015207873B2 (en) * | 2005-11-15 | 2017-05-04 | Bernadette Garner | Method for training neural networks |
EP3035205A1 (en) * | 2014-12-19 | 2016-06-22 | Intel Corporation | Reconfigurable functional unit and method for artificial neural networks |
US10223635B2 (en) | 2015-01-22 | 2019-03-05 | Qualcomm Incorporated | Model compression and fine-tuning |
CN106227851B (zh) * | 2016-07-29 | 2019-10-01 | 汤一平 | 基于深度卷积神经网络的分层深度搜索的图像检索方法 |
CN106529669A (zh) * | 2016-11-10 | 2017-03-22 | 北京百度网讯科技有限公司 | 用于处理数据序列的方法和装置 |
US10949766B2 (en) * | 2017-10-15 | 2021-03-16 | Gsi Technology Inc. | Precise exponent and exact softmax computation |
CN107729984A (zh) * | 2017-10-27 | 2018-02-23 | 中国科学院计算技术研究所 | 一种适用于神经网络激活函数的计算装置及方法 |
US11645493B2 (en) * | 2018-05-04 | 2023-05-09 | Microsoft Technology Licensing, Llc | Flow for quantized neural networks |
US11775805B2 (en) * | 2018-06-29 | 2023-10-03 | Intel Coroporation | Deep neural network architecture using piecewise linear approximation |
US20200264876A1 (en) * | 2019-02-14 | 2020-08-20 | Microsoft Technology Licensing, Llc | Adjusting activation compression for neural network training |
US11861761B2 (en) * | 2019-11-15 | 2024-01-02 | Intel Corporation | Graphics processing unit processing and caching improvements |
US12002145B2 (en) * | 2020-08-17 | 2024-06-04 | Intel Corporation | Apparatus and method for efficient graphics processing including ray tracing |
US11995767B2 (en) * | 2020-08-17 | 2024-05-28 | Intel Corporation | Apparatus and method for compressing ray tracing acceleration structure build data |
-
2018
- 2018-08-10 CN CN201810906496.7A patent/CN110826706B/zh active Active
-
2019
- 2019-07-03 US US16/502,687 patent/US11651198B2/en active Active
- 2019-07-05 JP JP2019125658A patent/JP2020027611A/ja active Pending
- 2019-07-10 KR KR1020190083131A patent/KR102420661B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003067182A (ja) * | 2001-08-28 | 2003-03-07 | Matsushita Electric Works Ltd | 演算装置および演算方法 |
US20160179434A1 (en) * | 2014-12-19 | 2016-06-23 | Intel Corporation | Storage device and method for performing convolution operations |
WO2018100920A1 (ja) * | 2016-12-01 | 2018-06-07 | ソニーセミコンダクタソリューションズ株式会社 | 演算装置、演算方法及びコンピュータプログラム |
JP2018092294A (ja) * | 2016-12-01 | 2018-06-14 | ソニーセミコンダクタソリューションズ株式会社 | 演算装置、演算方法及びコンピュータプログラム |
Non-Patent Citations (1)
Title |
---|
ラシュカ セバスチャン SEBASTIAN RASCHKA: ""Python機械学習プログラミング 第1版 Python Machine Learning 達人データサイエンティストによ", PYTHON機械学習プログラミング 第1版 PYTHON MACHINE LEARNING (2017-04-11), JPN7020002579, 11 April 2017 (2017-04-11), ISSN: 0004426431 * |
Also Published As
Publication number | Publication date |
---|---|
KR20200018237A (ko) | 2020-02-19 |
CN110826706A (zh) | 2020-02-21 |
CN110826706B (zh) | 2023-10-03 |
KR102420661B1 (ko) | 2022-07-14 |
US20200050924A1 (en) | 2020-02-13 |
US11651198B2 (en) | 2023-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020027611A (ja) | ニューラルネットワークのためのデータ処理方法および装置 | |
US10656962B2 (en) | Accelerate deep neural network in an FPGA | |
CN109165736B (zh) | 应用于卷积神经网络的信息处理方法和装置 | |
US11574239B2 (en) | Outlier quantization for training and inference | |
WO2020207174A1 (zh) | 用于生成量化神经网络的方法和装置 | |
CN110516678B (zh) | 图像处理方法和装置 | |
CN109598344B (zh) | 模型生成方法和装置 | |
CN110009101B (zh) | 用于生成量化神经网络的方法和装置 | |
CN108509179B (zh) | 用于检测人脸的方法、用于生成模型的装置 | |
CN112085175A (zh) | 基于神经网络计算的数据处理方法和装置 | |
CN117894038A (zh) | 一种图像中对象姿态生成方法和装置 | |
CN110069195B (zh) | 图像拖拽变形方法和装置 | |
CN113610856B (zh) | 训练图像分割模型和图像分割的方法和装置 | |
KR20230076641A (ko) | 부동-소수점 연산을 위한 장치 및 방법 | |
CN111930670B (zh) | 异构智能处理量化装置、量化方法、电子设备及存储介质 | |
CN113361677B (zh) | 神经网络模型的量化方法和装置 | |
AU2020395435B2 (en) | Flexible precision neural inference processing units | |
CN114462592A (zh) | 模型训练方法、装置、电子设备及计算机可读存储介质 | |
CN111709784A (zh) | 用于生成用户留存时间的方法、装置、设备和介质 | |
CN115829053B (zh) | 模型运行策略确定方法、装置、电子设备以及存储介质 | |
CN109670577B (zh) | 模型生成方法和装置 | |
US20230214705A1 (en) | Model-agnostic input transformation for neural networks | |
CN112418405B (zh) | 模型压缩方法和装置 | |
CN110347506B (zh) | 基于lstm的数据处理方法、装置、存储介质与电子设备 | |
CN117523364A (zh) | 数据处理装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190705 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200812 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200828 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210115 |