JP6528349B1 - 情報処理装置及び情報処理方法 - Google Patents
情報処理装置及び情報処理方法 Download PDFInfo
- Publication number
- JP6528349B1 JP6528349B1 JP2019513862A JP2019513862A JP6528349B1 JP 6528349 B1 JP6528349 B1 JP 6528349B1 JP 2019513862 A JP2019513862 A JP 2019513862A JP 2019513862 A JP2019513862 A JP 2019513862A JP 6528349 B1 JP6528349 B1 JP 6528349B1
- Authority
- JP
- Japan
- Prior art keywords
- rows
- matrix
- columns
- input data
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 18
- 238000003672 processing method Methods 0.000 title claims description 7
- 239000011159 matrix material Substances 0.000 claims abstract description 122
- 238000004364 calculation method Methods 0.000 claims abstract description 71
- 239000013598 vector Substances 0.000 claims abstract description 62
- 238000013528 artificial neural network Methods 0.000 claims abstract description 21
- 238000012545 processing Methods 0.000 claims description 21
- 238000013473 artificial intelligence Methods 0.000 claims description 12
- 230000009467 reduction Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 41
- 230000006835 compression Effects 0.000 description 30
- 238000007906 compression Methods 0.000 description 30
- 238000013527 convolutional neural network Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 15
- 230000004913 activation Effects 0.000 description 7
- 238000007781 pre-processing Methods 0.000 description 6
- 238000006467 substitution reaction Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 125000004122 cyclic group Chemical group 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000003100 immobilizing effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/52—Multiplying; Dividing
- G06F7/523—Multiplying only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/52—Multiplying; Dividing
- G06F7/535—Dividing only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/5443—Sum of products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
Abstract
Description
演算処理部は、ニューラルネットワークにおけるノード間を結ぶネットワークの計算のための重み行列の行数あるいは列数を、入力データあるいは出力データによって定められる行数あるいは列数から削減した行数あるいは列数を用意し、
複数の層で演算する場合における少なくとも一部の層において、削減した行数あるいは列数の重み成分を、入力データのベクトルと掛け算をし、その掛け算をした結果の行列を、一定の列数毎あるいは行数毎の部分行列に分割し、分割して得られた部分行列毎に行列の和を行うことを特徴とする。
複数の層で演算する場合における少なくとも一部の層での演算時のステップとして、
ニューラルネットワークにおけるノード間を結ぶネットワークの計算のための重み行列の行数あるいは列数を、入力データあるいは出力データによって定められる行数あるいは列数から削減した行数あるいは列数とする削減ステップと、
削減ステップで削減した行数あるいは列数の重み成分を、入力データのベクトルと掛け算をする掛け算ステップと、
掛け算ステップで得た結果の行列を、一定の列数毎あるいは行数毎の部分行列に分割する分割ステップと、
分割ステップで分割して得られた部分行列毎に行列の和を行う和演算ステップと、を含むことを特徴とする。
とする。尚、(*)Tは行列の転置を示している。l=1,2,3,・・・という層の索引を示すlを用いて多層構造を表現する。また
は実数を意味する。
ベクトル
を
として計算するl番目の層の重み係数の和のベクトルとする。
説明を簡易化するために、以降は、bj (l)=0とf(u)=uとして説明を進める。
を使って
を計算することによりx(l+1)から復元ベクトル
を生成する。
自己符号化器の学習時には、
を求める最適化問題を解くことにより、重み行列
と
を導出する。ここでは、x(l)のベクトルの長さをJ(l)とする。
つまり次元圧縮された信号x(l+1)からW(l)を用いて元信号x(l)を復元する問題とみなすことができる。
逆に言うと、重み行列W(l)が次元圧縮された信号x(l+1)から元信号x(l)を復元する特性を有していればよいことになる。
例えば、非特許文献2として示す論文ではW(l)にその成分を標準的なガウス分布からランダムに選択した行列で、圧縮次元ベクトルから元信号ベクトルを再生できることを示している。
この特性を示す重み行列の構成法を以下に示す。
入力信号は手書き文字のサイズが28×28=784画素だとすると、一層目の入力信号x(1)のベクトルの長さはN=784となる。中間層として2層目のノードx(2)のベクトルの長さをM=500とすると、図3に示すように500×784の重み行列W(1)に入力信号ベクトルx(1)をかけて次元圧縮された中間ノードの信号x(2)を得ることになる。
図4、図5に本実施形態例のネットワーク圧縮方法を示す。従来のDNNでは各層ごとに入力ベクトル長N、出力ベクトル長Mに対してM×Nの成分に対する積が必要であり、この積の回数が演算量を増大させる元になっていた。
本実施形態例では、図5に示す様に元々のM×N=500×784の重み行列をM’×N=10×784まで圧縮させる方法を示す。
この圧縮した重み行列を
とする。また、圧縮率をγと表現すると、この圧縮率はγ=M’/M=10/500=1/50となる。
この
の重み行列を使って下記の計算を行う。
に対して特定のルールで置換またはランダムに置換した行列
との行列の和を下記のように実行する。ここで置換とは行列の任意の2要素の場所を互いに交換する、という操作を任意の回数行うことを意味する。
この結果、図6の右端に示すようなM’×N’=10×50の行列
が出力される。
の組み合わせによる行列の和を使うことによりランダム行列に近い特性を実現できる。
一方、本実施形態例では演算量が大きい掛け算の回数は、M′×N=10×784=7840回となり、従来のM×N=500×784=392000回に比べてγ=1/50まで下げられる効果がある。
という計算を行う。一般に重みは、wi,j∈[−1,1]の範囲で設定される。ここで重みの分布の分散値が大きい場合は、重みが−1や1の値をとる場合が多くなり、学習をする過程においても学習が収束しない勾配消失問題という問題も引き起こす。
という形で上式の右辺を見てもわかるように同じ方程式が2個重複して存在してしまい、出力するx(2)の1番目の要素と2番目の要素が同じになる為、その要素が1つ減ったことと同じになり、x(2)の情報そのものの欠損が生じてしまう。つまりx(2)の要素は本来6個であるが、1番目の要素と2番目の要素が同じになる為、要素5個分の情報に削減される。この計算を行う1つの層で情報の欠損は最終的な識別に用いる情報の欠損につながる為、識別性能を下げる要因になる。一方重みwi,jが−1や1の値をとったとしても同じ方程式の発生を最初から回避できる方法を用いれば、x(2)の要素の欠損は防ぐことができ、識別に必要な情報量も維持でき、最終的な識別の精度を下げない効果を得られる。
を作り、圧縮率の逆数1/γ毎にW(l)を分割し式(1)に示す様に
を計算し、その上で
に対して特定のルールで置換またはランダムに置換した行列
との行列の和を式(2)に示すように実行する。これらの実装はソフトウェア上でも実装可能であるが、FPGA等のハードウェアでの実装も可能である。
を構成し、ベクトル長は1/γ=3のx1 (1)、x2 (1)、x3 (1)を使って、
と計算する。
なお、簡易化のために行列の成分およびベクトルの要素の上付き文字(1)の表現は割愛している。
の2行目を左側に1列巡回シフトする置換をして下記のように
とする。
また、
の2行目を左側に2列巡回シフトする置換をして下記のように
とする。
結果、
は以下のように計算する。
なお、簡易化の為、
とする。
となり、重複する方程式は発生しない。また、一つの方程式あたりの積和の数も、式(3)、式(4)で行っていた9回の積、8回の和から、式(5)に示すように、3回の積、2回の和に削減できている。
この手法では、
の2行目の成分を左側に1列巡回シフト、
の2行目の成分を左側に2列巡回シフトしただけである。このようにシンプルな構造でも同じ方程式の発生は避けることができる。
図8中、「○」に「×」を組み合わせた印は掛け算回路を示し、「○」に「+」を組み合わせた印は加算回路を示す。図8から分かるにように、一度入力ベクトルの値x(1)と重みW(1)をレジスタ等にセットすれば、積和が同時に実行可能である。圧縮により回路に必要な積和の回路数とメモリ数も行列の成分の圧縮率に比例して削減できる。
また、
から
への置換パターンを固定化することにより、図8に示すように接続パターンを固定できハードウェア化が容易になる。
から
への置換パターンにランダムな置換を用いる場合を示す。図9に示す行列の1行目と2行目ともにランダムに置換するハードウェア構成が、図10に示すハードウェアで実現される。この場合にも、置換パターンを固定化することは可能であるためハードウェア化は同様に容易である。
まず、従来例と同様に入力信号の前処理が行われる(ステップS21)。その後、行列計算として説明したように、圧縮した重み行列
を用い
の計算を実行し(ステップS22)、さらに
の計算を実行する(ステップS23)。
上記のように重み行列を圧縮しても特性がほとんど変わらない為、計算量が削減できる。重み行列はネットワーク構造そのものの表現でもあり、重み行列の圧縮はネットワーク圧縮とみなすことができる。
DNNをネットワーク圧縮した際の評価結果を表1および図12に示す。入力次元は784で中間層は500次元とし、最後に0〜9までの認識計算(Softmax)で出力する構造を採用している。表1および図12の評価結果から分かるように、1/50に演算量を削減しても正解率は僅かしか劣化しない事が確認できる。表1は、手書き数字0〜9までの認識の正解率である。
図13にCNNの基本ネットワーク構成を示す。一般にCNNは画像などに映っている物体の認識に使う用途などに用いられるため、以降の説明では画像での物体識別を意識した説明を行う。
入力チャネルC(l),出力チャネルC(l+1)に対応するフィルタを
とする。
となる。
図14に沿って計算すると
但し、
においてi>M(l)あるいはj>M(l)のときは、
である。
一方、畳み込み計算の為に出力データのサイズに合わせてX(l),C(l)を長さM(l+1)×M(l+1)のベクトルに変換したものをxr (l),C(l)とする。ここでrはr回目の畳み込み計算の対象となるベクトルの意味である。例えば最初r=1回目の畳み込み計算の為に生成するベクトルxr=1 (l),C(l)は
続いてr=2回目の畳み込み計算の為に生成するベクトルxr=2 (l),C(l)は、
この行列をチャネル数CN(l)個分行方向に連結させて、下記の様にxb(l)を生成する。
但し、
においてi>M(l)あるいはj>M(l)のときは、
である。
なお、図15の行列の要素の上付きの添え字のうち、層を示す(l)は簡易化のため割愛している。
CNNに対して本実施形態例のネットワーク圧縮法を、このFB(l)に適用して圧縮する。この圧縮したフィルタ行列を
とする。
この例では説明の紙面の都合上、圧縮率はγ=1/2を例にしているが、DNNの場合と同じように圧縮率は数十分の1等のより高い圧縮率の設定も可能である。
の行列
がi=1,2,・・・,M(l+1)・M(l+1)に対応するようにM(l)・M(l)=9個出力される。この行列
を下記の様に各行を列方向に連結させたベクトルに変換し転置をして、
を構成する。これらを用いて、CN(l+1)×(M(l+1)・M(l+1))のxb(l+1)を求める。
の組み合わせによる行列の和を使うことによりランダム行列に近い特性を実現できる。
結果認識性能や予測性能は、従来例と本実施形態例では僅かな性能差に抑えられる。一方、本実施形態例の場合には、演算量が大きい掛け算の回数はDNNの場合と同様圧縮率γまで下げられる効果がある。これらの実装はソフトウェア上でも実装可能であるが、FPGA等のハードウェアでの実装も可能である。
のベクトル長9のものを対象として圧縮する。γ=1/4とし2×9の行列
とベクトル長9の
2×9の行列の
を使って
ただし、簡易化のために行列
の成分はwi,j、ベクトル
の要素はxjと表記している。
ここでは、
とする。
は、以下のように計算する
なお簡易化の為、
とする。
この計算の回路は、図8に示すようにハードウェア化した場合と同様の回路になる。
から
への置換パターンにランダムな置換を用いる場合は、図10と同様の回路になる。
そして、入力ベクトルx(1)とし、畳み込みのルールに合わせた行列xb(1)に変換して、正規化や量子化の前処理が行われる(ステップS41)。
この処理を繰り返し実行する(ステップS45〜S50)。
図18の例では、例えばl=L層まで繰り返して、最終的にSoftmax等の計算を実施して認識する(ステップS51)。
まず、従来例と同様に入力信号の前処理が行われる(ステップS61)。
そして、行列計算の部分で既に説明したように圧縮したフィルタの行列
を用いて、
の計算を実施し(ステップS62)、その後に、
および
を実行する(ステップS63)。さらに、活性化関数fを実行する(ステップS64)。
次に、MAX pooling等の処理(ステップS65)が行われる。
そして、Softmax等の計算を実施して認識する(ステップS73)。
更には本実施形態例の計算は、全体の一部の層のみ適用してもよい。
上記のように重み行列を圧縮しても特性がほとんど変わらない為、計算量が削減できる。フィルタ行列はネットワーク構造の一部を示す表現でもあり、フィルタ行列の圧縮はネットワーク圧縮とみなすことができる。
第2実施形態例では、CN(l)・H(l)・H(l)=3・2・2=12とし、CN(l+1)=4とした4×12の行列FB(l)を、圧縮率γ=1/2で、2×12の行列
に圧縮する方法を示した。
の中の左上に4×(16・12)の部分行列、真ん中に4×(16・13)の部分行列、右下に4×(16・13)の部分行列を配置する。ここで各部分行列は重複する行は無く、重複する列は存在するものとする。
と約1/50まで削減できる。このような構造にしても式(9)に示すような計算において重みが−1や1の値をとっても同じ方程式の発生を回避できるため、第1の実施の形態例や第2の実施の形態例と同様な効果が期待できる。この演算処理を実装する際には、各部分行列毎に図8や図10に示すような回路構成を用いることで実現できる。
また、本実施例ではx(l+1)を求める際重み行列W(l)とベクトルx(l)において重み行列W(l)の各行の成分とベクトルx(l)のすべての要素の積和をとらず、一部の要素の積和をとり方程式が一致しない組み合わせのルールを作る手段をとることで同じ方程式の発生を回避した。この方程式が一致しない組み合わせを生成できる計算であれば、上記方法に限らず適用可能となる。
図20に示すコンピュータ装置Cは、バスC8にそれぞれ接続されたCPU(Central Processing Unit:中央処理装置)C1、ROM(Read Only Memory)C2、及びRAM(Random Access Memory)C3を備える。さらに、コンピュータ装置Cは、不揮発性ストレージC4、ネットワークインタフェースC5、入力装置C6、及び表示装置C7を備える。また、必要に応じてFPGA(field-programmable gate array)C9を備えてもよい。
入力装置C6は、キーボードなどで構成される。
表示装置C7には、演算結果などが表示される。
Claims (6)
- 入力データに対してニューラルネットワークの演算を行うことで、人工知能機能を実現する演算処理部を備えた情報処理装置において、
前記演算処理部は、前記ニューラルネットワークにおけるノード間を結ぶネットワークの計算のための重み行列の行数あるいは列数を、入力データあるいは出力データによって定められる行数あるいは列数から削減した行数あるいは列数を用意し、
複数の層で演算する場合における少なくとも一部の層において、削減した行数あるいは列数の重み成分と、入力データのベクトルの一部の要素との積和を取り、組み合わせがすべて異なる方程式を構成することを特徴とする
情報処理装置。 - 入力データに対してニューラルネットワークの演算を行うことで、人工知能機能を実現する演算処理部を備えた情報処理装置において、
前記演算処理部は、前記ニューラルネットワークにおけるノード間を結ぶネットワークの計算のための重み行列の行数あるいは列数を、入力データあるいは出力データによって定められる行数あるいは列数から削減した行数あるいは列数を用意し、
複数の層で演算する場合における少なくとも一部の層において、削減した行数あるいは列数の重み成分を、入力データのベクトルと掛け算をし、その掛け算をした結果の行列を、一定の列数毎あるいは行数毎の部分行列に分割し、分割して得られた部分行列毎に行列の和を行うことを特徴とする
情報処理装置。 - 前記部分行列毎に任意の置換の操作を加えることを特徴とする
請求項2に記載の情報処理装置。 - 入力データに対してニューラルネットワークの演算を行うことで、人工知能機能を実現する演算処理部を備えた情報処理装置において、
前記演算処理部は、前記ニューラルネットワークにおけるノード間を結ぶネットワークの計算のための重み行列の行数あるいは列数を、入力データあるいは出力データによって定められる行数あるいは列数から削減した行数あるいは列数を用意し、
複数の層で演算する場合における少なくとも一部の層において、削減した行数あるいは列数の重み成分と、入力データのベクトルの一部の要素との積和を取り、組み合わせがすべて異なる方程式を構成することを特徴とする
情報処理方法。 - 入力データに対してニューラルネットワークの演算を行うことで、人工知能機能を実現する演算処理方法において、
複数の層で演算する場合における少なくとも一部の層での演算時のステップとして、
前記ニューラルネットワークにおけるノード間を結ぶネットワークの計算のための重み行列の行数あるいは列数を、入力データあるいは出力データによって定められる行数あるいは列数から削減した行数あるいは列数とする削減ステップと、
前記削減ステップで削減した行数あるいは列数の重み成分を、入力データのベクトルと掛け算をする掛け算ステップと、
前記掛け算ステップで得た結果の行列を、一定の列数毎あるいは行数毎の部分行列に分割する分割ステップと、
前記分割ステップで分割して得られた部分行列毎に行列の和を行う和演算ステップと、を含むことを特徴とする
情報処理方法。 - 前記部分行列毎に任意の置換の操作を加えることを特徴とする
請求項5に記載の情報処理方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017217037 | 2017-11-10 | ||
JP2017217037 | 2017-11-10 | ||
PCT/JP2018/014304 WO2019092900A1 (ja) | 2017-11-10 | 2018-04-03 | 情報処理装置及び情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6528349B1 true JP6528349B1 (ja) | 2019-06-12 |
JPWO2019092900A1 JPWO2019092900A1 (ja) | 2019-11-14 |
Family
ID=66438112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019513862A Active JP6528349B1 (ja) | 2017-11-10 | 2018-04-03 | 情報処理装置及び情報処理方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20200272890A1 (ja) |
EP (1) | EP3637323A4 (ja) |
JP (1) | JP6528349B1 (ja) |
KR (1) | KR20200022386A (ja) |
CN (1) | CN110770757A (ja) |
WO (1) | WO2019092900A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102404388B1 (ko) * | 2020-03-09 | 2022-06-02 | (주)그린파워 | 트랜스포즈 매트릭스 곱셈이 가능한 매트릭스 곱셈기 및 곱셈방법 |
CN111523685B (zh) * | 2020-04-22 | 2022-09-06 | 中国科学技术大学 | 基于主动学习的降低性能建模开销的方法 |
JPWO2021251005A1 (ja) | 2020-06-09 | 2021-12-16 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05346914A (ja) * | 1992-06-16 | 1993-12-27 | Matsushita Electron Corp | ニューロプロセッサ |
JP2016066269A (ja) * | 2014-09-25 | 2016-04-28 | Kddi株式会社 | クラスタリング装置、方法及びプログラム |
-
2018
- 2018-04-03 CN CN201880038129.8A patent/CN110770757A/zh not_active Withdrawn
- 2018-04-03 WO PCT/JP2018/014304 patent/WO2019092900A1/ja unknown
- 2018-04-03 US US16/621,810 patent/US20200272890A1/en not_active Abandoned
- 2018-04-03 JP JP2019513862A patent/JP6528349B1/ja active Active
- 2018-04-03 EP EP18877148.9A patent/EP3637323A4/en not_active Withdrawn
- 2018-04-03 KR KR1020197037361A patent/KR20200022386A/ko active Search and Examination
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05346914A (ja) * | 1992-06-16 | 1993-12-27 | Matsushita Electron Corp | ニューロプロセッサ |
JP2016066269A (ja) * | 2014-09-25 | 2016-04-28 | Kddi株式会社 | クラスタリング装置、方法及びプログラム |
Non-Patent Citations (2)
Title |
---|
JIAXIANG WU ET AL., QUANTIZED CONVOLUTIONAL NEURAL NETWORKS FOR MOBILE DEVICES, JPN7019001059, 16 May 2016 (2016-05-16), ISSN: 0004013272 * |
松本 渉: "深層学習での演算量削減技術", 三菱電機技報, vol. 第91巻,第6号, JPN6018019900, 20 June 2017 (2017-06-20), pages 51 - 54, ISSN: 0004013271 * |
Also Published As
Publication number | Publication date |
---|---|
CN110770757A (zh) | 2020-02-07 |
WO2019092900A1 (ja) | 2019-05-16 |
EP3637323A4 (en) | 2021-04-14 |
KR20200022386A (ko) | 2020-03-03 |
US20200272890A1 (en) | 2020-08-27 |
JPWO2019092900A1 (ja) | 2019-11-14 |
EP3637323A1 (en) | 2020-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107622302B (zh) | 用于卷积神经网络的超像素方法 | |
US11645529B2 (en) | Sparsifying neural network models | |
JP7007488B2 (ja) | ハードウェアベースのプーリングのシステムおよび方法 | |
JP6528349B1 (ja) | 情報処理装置及び情報処理方法 | |
US11328184B2 (en) | Image classification and conversion method and device, image processor and training method therefor, and medium | |
CN111652899A (zh) | 一种时空部件图的视频目标分割方法 | |
CN111951167B (zh) | 超分辨率图像重建方法、装置、计算机设备和存储介质 | |
US20230153946A1 (en) | System and Method for Image Super-Resolution | |
Ashir et al. | Facial expression recognition based on image pyramid and single-branch decision tree | |
CN113298716B (zh) | 基于卷积神经网络的图像超分辨率重建方法 | |
Huang et al. | Two-step approach for the restoration of images corrupted by multiplicative noise | |
JP6902318B2 (ja) | ニューラルネットワークの全結合層を畳み込み層に置き換えるプログラム | |
Fu et al. | Learned image compression with gaussian-laplacian-logistic mixture model and concatenated residual modules | |
CN112085655A (zh) | 一种基于密集残差注意面部先验网络的人脸超分辨率方法 | |
CN113436292B (zh) | 图像处理方法、图像处理模型的训练方法、装置及设备 | |
CN113362229B (zh) | 图像处理模型的训练方法、图像处理方法、装置及设备 | |
JPH06266747A (ja) | Dct/逆dct演算装置 | |
WO2021179117A1 (zh) | 神经网络通道数搜索方法和装置 | |
Qiao et al. | Dcs-risr: Dynamic channel splitting for efficient real-world image super-resolution | |
WO2020225916A1 (ja) | 情報処理装置 | |
CN109345453B (zh) | 利用标准化组稀疏规则化的图像超分辨率重构系统及方法 | |
KR102466156B1 (ko) | 컨벌루셔널 신경망 연산 방법 | |
TWI771250B (zh) | 用於降低資料維度的裝置及方法、用於轉換資料維度的裝置的操作方法 | |
CN110324620B (zh) | 帧内预测方法、装置、电子设备及机器可读存储介质 | |
JP7188589B2 (ja) | 復元装置、復元方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190311 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190311 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190311 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190426 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6528349 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |