JP7052034B2 - 重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサ - Google Patents

重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサ Download PDF

Info

Publication number
JP7052034B2
JP7052034B2 JP2020524354A JP2020524354A JP7052034B2 JP 7052034 B2 JP7052034 B2 JP 7052034B2 JP 2020524354 A JP2020524354 A JP 2020524354A JP 2020524354 A JP2020524354 A JP 2020524354A JP 7052034 B2 JP7052034 B2 JP 7052034B2
Authority
JP
Japan
Prior art keywords
weight
convolution
effective weight
effective
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020524354A
Other languages
English (en)
Other versions
JP2021503644A (ja
Inventor
ハン,インホー
ミン,フォン
シュー,ハオボー
ワン,イン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Computing Technology of CAS
Original Assignee
Institute of Computing Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Computing Technology of CAS filed Critical Institute of Computing Technology of CAS
Publication of JP2021503644A publication Critical patent/JP2021503644A/ja
Application granted granted Critical
Publication of JP7052034B2 publication Critical patent/JP7052034B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • G06F17/153Multidimensional correlation or convolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Neurology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Complex Calculations (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明はコンピュータラーニングの技術分野に関するものであり、より詳細には、重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサに関する。
近年では、深層学習(ディープラーニング)の技術が急速に発展し、画像認識、言語認識、自然言葉の理解、天気予報、遺伝子発現、回答の提示、ITロボットなどのハイレベルな抽象的認識の問題を解決するために広く応用され、さらに、学問や産業における研究の的になっている。
深層ニューラルネットワークは人工知能の分野において最も大きな発展を示した認識モデルの一つである。この深層ニューラルネットワークはモデルを構築することにより人間の脳の神経接続構造のシミュレーションを行い、複数回の形質転換の段階を経て階層的にデータの特質を記述し、静止画、動画及び音声などの高スケールのデータ処理作業に打開策をもたらしている。深層ニューラルネットワークのモデルは、メッシュ状に相互接続された構造によって接続された多数のノードからなる作動的なモデルである。これらのノードはニューロンと呼ばれている。二つのノード間の接続強度は重み付けされた重さ、すなわち、接続信号を介する二つのノード間において、人間の神経ネットワークにおける記憶に対応する重さを表している。
しかしながら、従来技術においては、ニューラルネットワークは処理速度が遅いことや消費電力が大きいことなどの問題点を有していた。これはディープラーニングの技術が巨大な計算量に依存しているためである。例えば、学習段階においても、ニューラルネットワークの重みデータを取得するためには、多量のデータの反復計算の繰り返しが必要とされる。推論段階においても、特に、ニューラルネットワークが自律運転などのリアルタイムのシステムに応用されている場合などには、ニューラルネットワークは極めて短い応答時間(通常はミリ秒単位)内に、入力されたデータの処理を完了することが要求される。ニューラルネットワークが行う計算には、主に、畳み込み処理、活性化処理、プーリング処理などが含まれるが、これらの処理の中でも畳み込み処理とプーリング処理とがニューラルネットワークによる処理時間の大半を占めている。
従って、ニューラルネットワークの応用範囲を拡大するためには、例えば、IT装着品、ITロボット、自律運転、パターン認識などの分野において、リアルタイムでのデータ処理、低電力消費量、計算資源の有効活用などを実現するために従来技術を改良することが必要である。
本発明は、従来技術の欠点を解消するために、重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサを提供することを目的とする。
本発明の第一の態様においては、ニューラルネットワークにおける重みデータ(weight data)の保存方法であって、重み畳み込みカーネルマトリクス(weight convolution kernel matrix)における有効重み(effective weight)を検出し、有効重みの指数(index of effective weight)を算出し、前記有効重みはゼロではなく、前記有効重み指数は前記重み畳み込みカーネルマトリクスにおける前記有効重みの位置をマーキングするために用いられるステップ1と、前記有効重み及び前記有効重み指数を保存するステップ2と、を備える方法が提供される。
一実施形態においては、前記ステップ1は、前記重み畳み込みカーネルマトリクスを、K×Kの正方形マトリクスがP個のサブマトリクスに均等に分割できるように、K×Kの正方形マトリクスに拡張し、前記Pは2以上の整数であるステップ11と、前記正方形マトリクスをP個のサブマトリクスに均等に分割するステップ12と、各サブマトリクスが1個のみの重みを示すようになるまで、各々が有効重みを構成している前記P個のサブマトリクスをサブマトリクスに再帰的かつ均等に分割し、複数レベルのサブマトリクスを得るステップ13と、前記複数レベルのサブマトリクスにおいて各々が有効重みを構成しているサブマトリクスに対して、ビット値が1である有効パスブランチ(effective path branch)を形成し、前記有効重み指数を得るステップ14と、を備える。
一実施形態においては、前記Kはmの値を取り、mは2以上の整数であり、nは1以上の整数である。
一実施形態においては、前記ステップ1において、前記有効重み指数は前記重み畳み込みカーネルマトリクスにおける前記有効重みの縦横座標を示すものである。
本発明の第二の態様においては、ニューラルネットワークにおける畳み込み計算の方法であって、本発明に係る上記の方法により保存された有効重み及び有効重み指数を取得するステップ41と、前記有効重み指数に従って、前記有効重みと適合する畳み込みドメインニューロン(domain neuron)を取得するステップ42と、前記有効重み及び前記畳み込みドメインニューロンの畳み込み処理を実行するステップ43と、を備える方法が提供される。
本発明の第三の態様においては、本発明に係る上記の方法により得られた有効重み及び有効重み指数を保存可能な重み・指数保存ユニットと、前記有効重み指数に従って、前記有効重みと適合する畳み込みドメインニューロン(domain neuron)を取得可能なニューロン指数ユニットと、前記有効重み及び前記畳み込みドメインニューロンの畳み込み処理を実行可能な計算アレイユニットと、を備えるニューラルネットワークプロセッサが提供される。
一実施形態においては、前記ニューラルネットワークプロセッサは、前記畳み込みドメインニューロンと畳み込みの結果とを保存する保存ユニットと、前記有効重み及び前記畳み込みドメインニューロンの畳み込み処理の実施順序を制御する制御ユニットと、をさらに備える。
従来技術と比較して、本発明は以下の利点を有している。
指数を求め、ゼロではない重みをコンパクトに保存し、さらに、この重みに対応するニューロンを畳み込みドメイン内に直接的にロックし、重みの指数を用いて畳み込み処理を実行することにより、値がゼロの重みと、ゼロの重みに対応するニューロンとが畳み込み計算の間に破棄され、これにより、ニューラルネットワークのデータ処理の保存スペースと、ロードするニューロンの数とを減らすことができる。結果的に、ニューラルネットワークの計算処理の電力消費量を効果的に減らすことができるとともに、計算資源の利用の仕方を改善することができる。本発明においては、重みデータは重みの指数とは別個に分けて保存されるので、目的のニューロンを並列的にサーチすることが容易になる。
添付の図面は本発明の単なる図示及び説明であって、本発明の範囲をそれに限定することを意図するものではない。
図1(a)は、入力の畳み込みプロセスを示す図である。 図1(b)は、入力の畳み込みプロセスを示す図である。 図2は、本発明の一実施形態に係る重みデータの保存方法のフローチャートである。 図3(a)は、本発明の一実施形態に係る重み保存方法を示す図である。 図3(b)は、本発明の一実施形態に係る重み保存方法を示す図である。 図3(c)は、本発明の一実施形態に係る重み保存方法を示す図である。 図4は、本発明の一実施形態に係るニューラルネットワークプロセッサを示す図である。 図5は、図4に示したニューラルネットワークプロセッサの各ユニット間の接続を示す図である。 図6は、図5に示したニューラルネットワークプロセッサの動作を示すフローチャートである。
本発明の目的、技術的手段、方法及び利点の理解を容易にするため、添付の図面及び特定の実施形態を参照して本発明を以下に詳細に説明する。以下に記載される特定の実施形態は単に本発明を説明するためのものであり、本発明の範囲を限定することを意図するものではない。
典型的には、深層ニューラルネットワークはニューラルネットワークの複数の層を有するトポロジーであり、ニューラルネットワークの複数の層の各々が複数のフィーチャレイヤー(feature layer)を有している。例えば、畳み込みニューラルネットワークに関しては、データ処理のプロセスは、畳み込みレイヤー、プーリングレイヤー、正規化レイヤー、非線形レイヤー、完全接続レイヤーなどの複数のレイヤーからなる。畳み込みレイヤーの処理プロセスは以下の通りである:入力特性マップを二次元重み畳み込みカーネルでスキャンする、次いで、スキャンの間に、重み畳み込みカーネルと特性マップ内において対応する畳み込みドメイン内のニューロンとの内積を計算し、全ての畳み込みドメインの内積の値を合計し、出力特性マップ、すなわち、畳み込みレイヤーの出力ニューロンを得ることができる。図1は、5×5の重み畳み込みカーネルで3個の入力特性マップをスキャンするプロセスを示す図である。その後、出力特性マップは、非線形活性化機能(例えば、ReLUなど)により、次のレイヤー(すなわち、プーリングレイヤー)にさらに移される。各畳み込みレイヤーがN個の出力特性マップを有している場合には、L×Lの大きさのN個の畳み込みカーネルが畳み込みレイヤーの入力特性マップを畳み込む。プーリングレイヤーはダウンサンプリングレイヤーとも呼ばれ、そのプロセスは次の通りである:特性マップ(例えば、畳み込みレイヤーによってプーリングレイヤーに出力された特性マップ)がP×Pの大きさの二次元ウインドウ(すなわち、プーリングドメイン)でスキャンされ、このスキャンの間に、そのレイヤー内にあるウインドウの対応ニューロンの最大値または平均値が計算され、プーリングレイヤーの出力ニューロンが求められる。一方、プーリングレイヤーはノイズ情報を消去することも可能であり、これにより、特性の抽出が容易になる。一方、プーリングレイヤーは次のレイヤーにおける多数の特性ニューロンを減らすことも可能であり、これによって、ネットワークのサイズを小さくすることができる。
ニューラルネットワークにおける畳み込み計算の効率を上げるため、本発明は重みデータの保存方法を提供する。この方法は既存のニューラルネットワークモデルにも適用可能である。簡潔に言えば、本発明に係る重みデータの保存方法は有効重み(すなわち、ゼロではない重み)の指数を求め、この指数を求めるプロセスをベースとして、重みをコンパクトに保存するものである。
図2は、本発明の一実施形態に係る重みデータ保存方法のフローチャートである。重みデータ保存方法は以下のステップを備えている。
ステップ210においては、オリジナルの重み畳み込みカーネルマトリクスが拡張される。
このステップにおいて、オリジナルの重み畳み込みカーネルマトリクスはK×Kの正方形マトリクスに拡張される。拡張されたマトリクスはP個のサブマトリクスに均等に分割可能であるようになっている。Pは2以上の整数である。本実施形態においては、Kはmの値を取り、mは2以上の整数であり、nは1以上の整数とすることができる。オリジナルの重み畳み込みカーネルマトリクスに関しては、上記の正方形マトリクスに新たに追加された要素は0(ゼロ)に設定される。
例えば、オリジナルの重み畳み込みカーネルマトリクスは5×5のマトリクスAであり、このマトリクスAが8×8のマトリクス(すなわち、K=8、m=2、n=3)に拡張される。この場合、図3(a)に示すように、新たに追加される要素は0(ゼロ)に設定される。
Figure 0007052034000001
なお、オリジナルの重み畳み込みカーネルマトリクスでは、Kは複数の値を取ることができる。例えば、5×5のマトリクスはK=9(すなわち、m=3、n=2)のマトリクスに拡張することもできる。拡張したマトリクスをP個の均等なパーツに分割する場合には、オリジナルの重み畳み込みカーネルマトリクスの大きさに最も近いKの値を選定することが好ましい。すなわち、5×5のマトリクスについて言えば、Kは8に設定することが好ましい。さらに、オリジナルの畳み込みカーネルマトリクスがP個の均等なパーツに分割可能な場合には、拡張を行うことなく、以下のステップS220及びS230が直接的に実行される。
ステップS220においては、有効重みに対して指数が求められる。
このステップにおいては、各重み畳み込みカーネルは重み指数の1単位として扱われる。指数の形成及び重み保存方法は、図3(a)に一例として示されている5×5の重み畳み込みカーネルを参照して以下に説明される。
最初に、拡張したマトリクスの中心を選定し、拡張したマトリクスを均等に分割する。本実施形態においては、4分割法、すなわち、P=4を採用する。図3(a)を参照すると、第一レベルの均等分割点は拡張した8×8のマトリクスの中心である。中心を選択することにより、拡張マトリクスを4個の同サイズのサブマトリクスに均等に分割される。例えば、このようにして得られた4個の4×4のサブマトリクスはそれぞれ次のようになる。
Figure 0007052034000002
Figure 0007052034000003
Figure 0007052034000004
Figure 0007052034000005
次いで、各サブマトリクスに有効重みが存在するか否かが調べられる。存在する場合には、パスブランチ(path branch)には1の印が付けられる。存在しない場合には、パスブランチには0(ゼロ)の印が付けられる。例えば、サブマトリクスA1、A2及びA3は全て有効重みを有しているため、パスブランチは1となり、サブマトリクスA1、A2及びA3に対応するブランチは有効ブランチと呼ばれる。サブマトリクスA4は有効重みを有していないため、そのパスブランチは0となる。従って、これら4個のサブマトリクスに対応するブランチのビット値は順に1110となり、第一レイヤーのノードは1110と表される。すなわち、図3(b)に示すように、第一レイヤーのノードは3個の有効ブランチと1個の非有効ブランチ(図示せず)を有することになる。本実施形態においては、4個のサブマトリクスの単一ノード状況ツリーが形成され、有効ブランチのみが示される。
次いで、第一レイヤーノードのゼロのブランチに対応するサブマトリクスが除去され、同時に、4分割法に従って、ブランチが1であるサブマトリクスの各々について中心点(すなわち、第二レベルの均等分割点)が選定され、さらに、サブマトリクスA1、A2及びA3の3個の有効ブランチのサブブランチのビット値がそれぞれ1111、0010及び0100に設定される。これら3個の値は第二レイヤーの3個のノードを構成している、すなわち、第二レイヤーのノードは合計6個の有効ブランチを有している。
同様に、第二レイヤーノードの1のブランチに対応するサブマトリクスは再帰的に4分割され(各サブマトリクスの中心点は第三レベルの均等分割点である)、第二レベルノードの6個の有効ブランチのサブブランチのビット値はそれぞれ0110、0010、0100、0110、0010及び0100となる。これらの6個の値は第三レイヤーの6個のノードを構成する。第三レイヤーのノードのブランチによって表されるマトリクスは1×1のマトリクスであるので、それはただ一つの重みを有し、第三レイヤーの各ノードはリーフノード(leaf node)である。
上述のプロセスから理解できることは、オリジナルの重み畳み込みカーネルマトリクスについては、有効重みの指数は、非リーフノード(第一レイヤー及び第二レイヤーの各ノードを含む)に対してはT:1110111100100100(2バイト)であり、リーフノード(すなわち、第三レイヤーのノード)に対してはL:011000100100011000100100(3バイト)である。ここで、上述のプロセスにより得られた非リーフノード及びリーフノードは別個に保存され、さらに、まとめて有効重み指数と呼ばれる。このように、有効重み指数を保存するために必要なスペースを減らすことができる。例えば、本実施形態においては、8個の有効重みの指数をわずか5バイトで保存することが可能である。
図3(b)に示す実施形態においては、各ノードは4個のサブマトリクスを有しているため、4個のブランチは左から右に向かって順に2ビット、すなわち、00、01、10及び11でコード化することができ、有効ブランチのコードを組み合わせて有効パスのコードにすることができる。例えば、重み畳み込みカーネルにおいて5番目の有効重み0.32では、有効パスのビットコードは001101であり、このコードは第一レイヤーノードの有効ブランチ00と、第二レイヤーの第一ノードの有効ブランチ11と、第四リーフノードの有効ブランチ01とから構成されている。オリジナルの畳み込みカーネルにおける重みの縦横座標はその重みの有効パスの対応ビットコードを用いて説明することができる。例えば、ビットコードが001101である場合には、このコードに対応する重みは横(Row)010(バイナリー表示、ビットコード001101の1番目、3番目及び5番目のビット)と縦(Column)011(バイナリー表示、ビットコード001101の2番目、4番目及び6番目のビット)、すなわち、横2と縦3(0から数える)であることが示される。同様にして、全ての有効重みのコード、すなわち、000001、000010、000110、001001、001101、001110、011010及び100101を得ることができる。従って、保存されている有効重みと予め定められた有効パスのコード化規則とによれば、オリジナルの畳み込みカーネルにおける有効重みの位置座標を説明することができる。
図3(b)に示す実施形態おいては、均等分割により得られた4個のサブマトリクス(4個のサブマトリクスは2×2の順列として扱うことができる)はそれぞれ00、01、10及び11にコード化されている。すなわち、00は横0及び縦0のサブマトリクスを表し、01は横0及び縦1のサブマトリクスを表し、10は横1及び縦0のサブマトリクスを表し、11は横1及び縦1のサブマトリクスを表している。すなわち、各2ビット値においては、(左から右に見て)最初のビットは横の番号を、2番目のビットは縦の番号に対応している。このため、ビットコードにおける各2ビットの最初のビットは横の位置表示を形成し(すなわち、ビットコード001101における1番目、3番目及び5番目のビット)、2番目のビットは縦の位置表示を形成している(ビットコード001101における2番目、4番目及び6番目のビット)。
図3(b)は単にコード化方法を図示しているだけであって、当業者であれば、他のコード化方法を用いることも可能である。例えば、各ノードの4個のブランチを左から右に11、10、01及び00にコード化する方法や、ブランチを表現可能な他のコード化方法などである。コード化方法が異なれば、それに応じて、横位置及び縦位置の表示も変わってくる。他の実施形態においては、5×5のオリジナル畳み込みカーネルは9×9に拡張される。このケースでは、拡張されたマトリクスは9個の均等な部分に均等に分割可能であり(すなわち、P=9)、有効重みの指数は上述の方法を用いて求めることができる。
ステップS230においては、重みは、求めた指数に対応する重みの有効パスをベースとして保存される。
ステップS210及びS220からは、ゼロではない各リーフノードのバックトラッキングパスは有効重みの有効パスを表していることがわかる。有効重みは有効パスに従って左から右に保存され、重み指数を形成する。このため、本実施形態の5×5の重み畳み込みカーネルについては、有効重みは0.60-0.75-0.84-0.93-0.32-0.82-0.63の順番で保存される。
上述の重みデータ保存方法からは、オリジナルの重み畳み込みカーネルの各有効重みの位置または座標は有効重みの保存の順番と保存された重み指数とから解析することができる、ということが理解できる。
他の実施形態における重みデータ保存方法は、オリジナルの重み畳み込みマトリクスを直接的にスキャンするステップと、有効重みと、当該有効重みに対応する横縦座標を求めるステップと、当該有効重みの横座標及び縦座標を有効重みの指数として当該有効重みとともに保存するステップと、を備える。図2に示した実施形態と比較すると、この実施形態はオリジナルの畳み込みカーネルを拡張し、さらに、均等に分割するプロセスを単純化することができるが、重み指数を保存するために必要なスペースは相対的に増大する。
要約すると、本発明においては、有効重み指数を求め、さらに、重み指数の有効パスとともに順番に重みを保存することにより、畳み込みカーネルにおいて重みがゼロである多数の要素を圧縮することが可能になり、これにより、重みをコンパクトに保存することができる効果を達成するとともに、保存のスペースを効果的に減らすことが可能になる。
さらに、重み畳み込みカーネルと畳み込みドメインのニューロンの畳み込み計算のプロセスにおいて、畳み込みドメインのニューロンを有効重み指数に従ってスクリーニングすることができ、非有効重みに対応するニューロンのロードを回避することが可能になる。詳細には、オリジナル畳み込みカーネルの重みの縦横座標は、有効重み指数に対応してパスをコード化することにより得ることができ、それらの座標は畳み込みドメインにおける有効重み畳み込みに適合するニューロンの座標でもある。さらに、目標のニューロンの位置は図3(c)に示すようにして正確に固定(ロック)することができる。入力特性マップの畳み込みドメインにおける有効重みに対応するニューロンを重み指数を介して求めることにより、畳み込みの結果に影響を与えないニューロンを廃棄することができ、これにより、畳み込み計算の効率を向上させることができる。
本発明の重みデータ保存方法及びこの保存方法に対応して重み指数をベースとしてニューロンを畳み込みドメインにロードする方法はニューラルネットワークプロセッサに応用して、畳み込み処理の効率を向上させることができる。図4は本発明の一実施形態に係るニューラルネットワークプロセッサを示す。このニューラルネットワークプロセッサ401は、制御ユニット402と、入力データ保存ユニット403と、出力データ保存ユニット405と、重み保存ユニット404と、入力されたニューロンの貯蔵ユニット406と、重み貯蔵ユニット407と、計算アレイ400(少なくとも1個の計算ユニット410を備えている)と、出力貯蔵ユニット411と、重み指数形成ユニット412と、重みをコンパクトに保存するユニット413と、ニューロン指数ユニット414と、を備えている。
入力データ保存ユニット403は入力ニューロン貯蔵ユニット406に接続されており、ニューラルネットワークの各層により処理される目標データを保存するように構成されている。データには、オリジナル特性マップと、中間レイヤーの計算に関与する入力データとが含まれる。
出力データ保存ユニット405は出力貯蔵ユニット411に接続されており、出力されたニューロンと、計算アレイ400により計算された中間結果とを保存するように構成されている。
重み保存ユニット404は重み貯蔵ユニット407に接続されており、重み及び畳み込み処理による指数の他に、形成されたニューラルネットワークの重みをも保存するように構成されている。
入力ニューロン貯蔵ユニット406は計算アレイ400に接続されており、計算アレイ400にニューロン入力値を送り込む。
重み貯蔵ユニット407は計算アレイ400に接続されており、種々の出力特性マップに対して圧縮された重みを計算アレイ400に送る。
重み指数形成ユニット412は重み貯蔵ユニット407に接続されており、有効重みに対する指数を形成し、指数形成の間に得られた有効重みを重みコンパクト貯蔵ユニット413に出力し、さらに、重み指数を重み保存ユニット404に出力する。
重みコンパクト貯蔵ユニット413は重み指数形成ユニット412に接続されており、指数形成の間に抽出された有効重みを受け取り、これらの有効重みをコンパクトに保存することを実行し、さらに、重み圧縮の結果を重み保存ユニット404に出力する。
ニューロン指数ユニット414は重み貯蔵ユニット407に接続されており、重み貯蔵ユニット407内の重み指数を受け取り、これらの有効重みの有効パスを解析し、有効パスを相対的アドレスに変換し、入力ニューロン貯蔵ユニット406に送る。
計算アレイ400は出力貯蔵ユニット411に接続されており、畳み込み計算を実行し、出力特性マップの畳み込み計算野結果を得るように構成されている。
出力貯蔵ユニット411は出力データ保存ユニット405に接続されており、出力特性マップの畳み込み計算の結果または中間結果を得るように構成されている。
制御ユニット402は、入力データ保存ユニット403と、重み保存ユニット404と、出力データ保存ユニット405と、入力ニューロン貯蔵ユニット406と、重み貯蔵ユニット407と、計算アレイ400と、重み指数形成ユニット412と、重みをコンパクトに保存するユニット413と、ニューロン指数ユニット414とにそれぞれ接続されている。制御ユニット402はニューラルネットワークの各レイヤーのパラメータとプロセッサ内の計算アレイ400のパラメータとを取得し、ニューロン及び重みに対して畳み込み計算を実行し、各貯蔵ユニットにおけるデータのロードとデータの貯蔵の順番とを制御することにより、畳み込み処理の結果の正確性を保証している。
本発明の重みデータ保存方法や重み指数に基づいて畳み込みドメインニューロンをロードするための方法を実行することが要求されている重み指数形成ユニット412、重みコンパクト保存ユニット413及びニューロン指数ユニット414に加えて、図4に示すニューラルネットワークプロセッサは出力貯蔵ユニット411、出力データ保存ユニット405、入力データ保存ユニット403及び他の形式の保存または貯蔵ユニットをさらに備えている。これらの保存ユニットはデータのロード、データ処理、ニューラルネットワークプロセッサの計算結果の出力を円滑に実行することを保証し、これにより、ニューラルネットワークプロセッサのデータ量を改善している。
図4はニューラルネットワークプロセッサをモジュラー形式で図示している。各ユニット間の接続関係及びデータ処理のプロセスのより一層の理解を可能にするため、図5は図4に示したニューラルネットワークプロセッサをさらに詳しく示している。図5の入力された重み及び指数の貯蔵ユニットは図4の重み貯蔵ユニットに対応し、図示されている活性化ユニット及びプーリングユニットはそれぞれ各ニューラルネットワークレイヤーにおいて活性化とプーリングを行うように構成されている。
図5を参照すると、ニューラルネットワークプロセッサの処理プロセスは、例えば、1個の入力特性マップと4個の出力特性マップとを取得し、さらに、ユニットとしての1個の重み畳み込みカーネル(図6を参照)を取得することにより、開始される。具体的には、本処理プロセスは以下のステップを有している。
ステップS610においては、圧縮された重み、入力されたニューロン及び重み指数がそれぞれ対応する貯蔵ユニットにロードされる。
本発明に係る重みデータ保存方法により得られた圧縮された重み及び重み指数は入力重み・指数貯蔵ユニットにロードされ、入力されたニューロンはニューロン貯蔵ユニットにロードされる。貯蔵ユニットが一杯である場合には、データのロードは保留される。
ステップS620においては、圧縮された重みと、対応する畳み込みドメインのニューロンとは計算アレイにロードされる。
具体的には、ステップS620は、記憶されたオリジナルの順番に従って圧縮された重みを計算アレイに直接的にロードするステップと、重み指数を用いて、貯蔵されたニューロン畳み込みドメイン内の圧縮された重みに対応するニューロンをロックするステップと、を備えている。
例えば、4個の出力特性マップ(すなわち、4組の畳み込みカーネルがあり、各畳み込みドメイン内のニューロンは全ての畳み込みカーネルで畳み込み処理されることが必要である)については、畳み込みドメインのニューロンの4個のコピーが作成された後にニューロンはニューロン指数ユニット内に配置され、ニューロン指数ユニットは、種々の出力特性マップに対応する重み指数に従って、有効重み指数に対応するニューロンを含むようにニューロンを選択し、次いで、他のニューロンを廃棄する。
ステップS630においては、計算アレイは圧縮重み及びそれに対応するニューロンに対して畳み込み処理を実行する。
具体的には、圧縮重み及びそれに対応するニューロンは二つの有効ベクトルを構成し、計算アレイはこれらの二つのベクトルに対して畳み込み処理を実行し、中間処理または畳み込みの結果は出力貯蔵ユニットにロードされる。貯蔵ユニットが一杯である場合には、書き込みは保留され、貯蔵ユニット内のデータは出力データ貯蔵ユニットに出力される。
ステップS610、S620及びS630によって、畳み込みドメイン内のニューロンに対する畳み込みカーネルの畳み込み処理が完了する。
ステップS640においては、ロードされた圧縮重みを再び用いて、更新された畳み込みドメインに対して畳み込み計算が実行される。
畳み込みドメインの畳み込み処理が完了した後には、ロードされた重みは計算アレイ内に保持される。更新された畳み込みドメインはストライド状にシフトされ、新たな畳み込みドメインのニューロンがロードされる。新たな畳み込みドメインの有効ニューロンは重み指数に従ってロックされ、さらに、計算アレイにロードされる。このプロセスは、入力特性マップの全てのニューロンの畳み込み計算が完了するまで、繰り返される。
本発明の他の実施形態においては、入力特性マップが複数ある場合には、1個の入力特性マップにおける種々の畳み込みドメインの畳み込み処理が最初に実行され、次いで、他の特性マップが順番に処理される。このようにして、ロードされた圧縮重みを再利用することができる。
ステップS650においては、活性化及びプーリングが実行される。
得られた畳み込みの結果は活性化され、プーリングされる。このプロセスは従来技術に属するものであるので、ここでは詳細には説明しない。
要約すると、本発明においては、有効重みをコンパクトに貯蔵することにより、貯蔵のスペースを節約することができ、さらに、有効重み指数に基づいて行われる対応ニューロンのロードは畳み込み計算の効率を向上させ、これにより、特に、多数の重みがゼロである希薄なニューラルネットワークに対して顕著な効果を発揮する。
本発明に係るニューラルネットワークプロセッサは、携帯電話や埋め込み式電子機器などの様々な電子機器に応用可能である。
本発明においては、重みは圧縮して保存される。このため、本発明に係る方法に従って保存された重みは圧縮重みとも呼ぶことがある。さらに、畳み込みカーネル、重み畳み込みカーネル及び重み畳み込みカーネルマトリクスは全て同じ意味である。それらは重みの値により形成されたマトリクスでもあり、畳み込みドメインにおいてニューロンを畳み込むために使用される。
各種ステップを上述の特定の順番で説明したが、これらのステップはその特定の順番に従って実行されるべきものであることを意味するものではない。実際には、所望の機能が達成される限りにおいて、これらのステップのうちのいくつかは同時に実行してもよく、あるいは、異なる順番で実行してもよい。
本発明はシステム、方法及び/またはコンピュータプログラムとして成立し得る。コンピュータプログラムには、プロセッサに本発明の種々の態様を実行させるためのコンピュータが読み取り可能なプログラムによる指示を保存可能なコンピュータによる読み取り可能な記憶媒体をも含めることができる。
コンピュータが読み取り可能な記憶媒体は、指示実行機器によって使用される機器であって、指示を保持・保存可能な物理的な機器として構成することができる。コンピュータが読み取り可能な記憶媒体は、例えば、電子記憶機器、磁気記憶機器、光学記憶機器、電磁気記憶機器、半導体記憶機器、あるいは、他のこれらの適切な組み合わせとして構成することができるが、それらに限定されるものではない。コンピュータが読み取り可能な記憶媒体のより具体的な例としては(全てを挙げるものではない)、プログラム可能なコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能かつプログラム可能なリードオンリーメモリ(EPROMまたはフラッシュメモリ)、スタティックランダムアクセスメモリ(SRAM)、携帯式コンパクトディスク型リードオンリーメモリ(CD-ROM)、ディジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、パンチ式カードまたは指示が保存された、溝内の凸状体などの機械式コーディング機器、これらの適切な組み合わせなどがある。
本発明の様々な実施形態を説明したが、上記の説明は限定的なものではなく例示的なものであり、上記の実施形態に限定されるものではない。当業者にとっては、図示した様々な実施形態の範囲・概念を逸脱することなく、多くの応用・変更が可能であることが明白である。本明細書における用語は種々の実施形態の原理や実際の応用、または、市場における技術の改良を最も適切に説明することを意図して、あるいは、当業者が本明細書において記載された実施形態を理解し得るように、選択されている。

Claims (8)

  1. ニューラルネットワークにおける重みデータ(weight data)の保存方法であって、
    重み畳み込みカーネルマトリクス(weight convolution kernel matrix)における有効重み(effective weight)を検出し、有効重みの指数(index of effective weight)を算出し、前記有効重みはゼロではなく、前記有効重み指数は前記重み畳み込みカーネルマトリクスにおける前記有効重みの位置をマーキングするために用いられるステップ1と、
    前記有効重み及び前記有効重み指数を保存するステップ2と、
    を備え、前記ステップ1は、
    オリジナルの前記重み畳み込みカーネルマトリクスを、P 個のサブマトリクスに均等に分割できるように、K×Kの正方形マトリクスに拡張し、前記Pは2以上の整数であるステップ11と、
    前記正方形マトリクスを 個のサブマトリクスに均等に分割するステップ12と、
    各サブマトリクスが1個のみの重みを示すようになるまで、各々が有効重みを構成している前記 個のサブマトリクスをサブマトリクスに再帰的かつ均等に分割し、複数レベルのサブマトリクスを得るステップ13と、
    前記複数レベルのサブマトリクスにおいて各々が有効重みを構成しているサブマトリクスに対して、ビット値が1である有効パスブランチ(effective path branch)を形成し、前記有効重み指数を得るステップ14と、
    からなるものであることを特徴とする方法。
  2. 前記Kはmの値を取り、mは2以上の整数であり、nは1以上の整数であることを特徴とする請求項1に記載の方法。
  3. 前記ステップ1において、前記有効重み指数は前記重み畳み込みカーネルマトリクスにおける前記有効重みの縦横座標を示すものであることを特徴とする請求項1に記載の方法。
  4. ニューラルネットワークにおける畳み込み計算の方法であって、
    請求項1乃至3の何れか一項に記載の方法により保存された有効重み及び有効重み指数を取得するステップ41と、
    前記有効重み指数に従って、前記有効重みと適合する畳み込みドメインニューロン(domain neuron)を取得するステップ42と、
    前記有効重み及び前記畳み込みドメインニューロンの畳み込み処理を実行するステップ43と、
    を備える方法。
  5. 請求項1乃至3の何れか一項に記載の方法により得られた有効重み及び有効重み指数を保存可能な重み・指数保存ユニットと、
    前記有効重み指数に従って、前記有効重みと適合する畳み込みドメインニューロン(domain neuron)を取得可能なニューロン指数ユニットと、
    前記有効重み及び前記畳み込みドメインニューロンの畳み込み処理を実行可能な計算アレイユニットと、
    を備えるニューラルネットワークプロセッサ。
  6. 前記畳み込みドメインニューロンと畳み込みの結果とを保存する保存ユニットと、
    前記有効重み及び前記畳み込みドメインニューロンの畳み込み処理の実施順序を制御する制御ユニットと、
    をさらに備えることを特徴とする請求項5に記載のニューラルネットワークプロセッサ。
  7. コンピュータプログラムを記憶するためのコンピュータが読み取り可能な記憶媒体であって、前記プログラムがプロセッサによって実行されたときに、請求項1乃至4の何れか一項に記載の方法の各ステップが実行されるものである記憶媒体。
  8. プロセッサと、前記プロセッサ上で実行可能なコンピュータプログラムが記憶されているメモリと、を備えるコンピュータ機器であって、前記プロセッサが前記プログラムを実行したときに、請求項1乃至4の何れか一項に記載の方法の各ステップが実行されるものであるコンピュータ機器。
JP2020524354A 2017-11-10 2018-02-28 重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサ Active JP7052034B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711102821.6 2017-11-10
CN201711102821.6A CN107977704B (zh) 2017-11-10 2017-11-10 权重数据存储方法和基于该方法的神经网络处理器
PCT/CN2018/077516 WO2019091020A1 (zh) 2017-11-10 2018-02-28 权重数据存储方法和基于该方法的神经网络处理器

Publications (2)

Publication Number Publication Date
JP2021503644A JP2021503644A (ja) 2021-02-12
JP7052034B2 true JP7052034B2 (ja) 2022-04-11

Family

ID=62013286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020524354A Active JP7052034B2 (ja) 2017-11-10 2018-02-28 重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサ

Country Status (5)

Country Link
US (1) US11531889B2 (ja)
JP (1) JP7052034B2 (ja)
CN (1) CN107977704B (ja)
IL (1) IL274535B1 (ja)
WO (1) WO2019091020A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109725936B (zh) * 2017-10-30 2022-08-26 上海寒武纪信息科技有限公司 扩展计算指令的实现方法以及相关产品
KR102065672B1 (ko) * 2018-03-27 2020-01-13 에스케이텔레콤 주식회사 합성곱 연산을 위한 장치 및 방법
JP7240657B2 (ja) * 2018-05-15 2023-03-16 Tokyo Artisan Intelligence株式会社 ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム
CN108874914B (zh) * 2018-05-29 2021-11-02 吉林大学 一种基于图卷积与神经协同过滤的信息推荐方法
CN113190791A (zh) 2018-08-06 2021-07-30 华为技术有限公司 矩阵的处理方法、装置及逻辑电路
CN110825311B (zh) * 2018-08-10 2023-04-18 昆仑芯(北京)科技有限公司 用于存储数据的方法和装置
US20210098001A1 (en) * 2018-09-13 2021-04-01 Shanghai Cambricon Information Technology Co., Ltd. Information processing method and terminal device
CN110928576A (zh) * 2018-09-20 2020-03-27 中兴通讯股份有限公司 一种卷积神经网络的卷积处理方法、装置及存储介质
US11436482B2 (en) 2018-10-29 2022-09-06 Western Digital Technologies, Inc. Storing neural net works and weights for neural networks
CN109933654A (zh) * 2019-01-30 2019-06-25 神思电子技术股份有限公司 一种基于状态树的对话管理方法
US11562214B2 (en) * 2019-03-14 2023-01-24 Baidu Usa Llc Methods for improving AI engine MAC utilization
CN111695683B (zh) * 2019-03-15 2023-09-01 华邦电子股份有限公司 可执行人工智能运算的存储器芯片及其运算方法
CN110097172B (zh) * 2019-03-18 2021-10-29 中国科学院计算技术研究所 一种基于winograd卷积运算的卷积神经网络数据处理方法及装置
CN110378468B (zh) * 2019-07-08 2020-11-20 浙江大学 一种基于结构化剪枝和低比特量化的神经网络加速器
KR20210060024A (ko) * 2019-11-18 2021-05-26 에스케이하이닉스 주식회사 신경망 처리 회로를 포함하는 메모리 장치
CN111242277B (zh) * 2019-12-27 2023-05-05 中国电子科技集团公司第五十二研究所 一种基于fpga设计的支持稀疏剪枝的卷积神经网络加速器
CN113128658B (zh) * 2019-12-31 2024-07-09 Tcl科技集团股份有限公司 一种神经网络处理方法、加速器及存储介质
CN111260037B (zh) * 2020-02-11 2023-10-13 深圳云天励飞技术股份有限公司 图像数据的卷积运算方法、装置、电子设备及存储介质
CN111368981B (zh) * 2020-03-06 2021-07-09 上海新氦类脑智能科技有限公司 减小突触连接的存储面积的方法、装置、设备和存储介质
CN113822410A (zh) * 2020-06-18 2021-12-21 华为技术有限公司 神经网络模型训练、图像分类、文本翻译方法及装置、设备
CN111553471A (zh) * 2020-07-13 2020-08-18 北京欣奕华数字科技有限公司 一种数据分析处理方法及装置
CN113220606B (zh) * 2021-05-07 2021-11-26 珠海市芯动力科技有限公司 神经网络权值存储方法、读取方法及相关设备
WO2022247908A1 (zh) * 2021-05-27 2022-12-01 北京灵汐科技有限公司 权重矩阵的数据存储方法、数据获取方法及装置、设备
CN114527930B (zh) * 2021-05-27 2024-01-30 北京灵汐科技有限公司 权重矩阵数据存储方法、数据获取方法和装置、电子设备
CN113688983B (zh) * 2021-08-09 2024-07-05 上海新氦类脑智能科技有限公司 脉冲神经网络中减少权重储存的卷积运算实现方法、电路及终端
CN116050469A (zh) * 2021-10-28 2023-05-02 华为技术有限公司 Ai模型的处理方法、运算方法及装置
CN113704565B (zh) * 2021-10-28 2022-02-18 浙江大学 基于全局区间误差的学习型时空索引方法、装置及介质
CN114780039A (zh) * 2022-04-29 2022-07-22 北京灵汐科技有限公司 存储方法、计算方法、存储装置、众核系统、介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106447034A (zh) 2016-10-27 2017-02-22 中国科学院计算技术研究所 一种基于数据压缩的神经网络处理器、设计方法、芯片
CN106529670A (zh) 2016-10-27 2017-03-22 中国科学院计算技术研究所 一种基于权重压缩的神经网络处理器、设计方法、芯片
CN106650924A (zh) 2016-10-27 2017-05-10 中国科学院计算技术研究所 一种基于时间维和空间维数据流压缩的处理器、设计方法
US20170168990A1 (en) 2015-12-11 2017-06-15 Sap Se Adaptive tile matrix representation and multiplication
WO2017154946A1 (ja) 2016-03-09 2017-09-14 日本電気株式会社 情報処理装置、情報処理方法、データ構造およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0219069A (ja) * 1988-07-06 1990-01-23 Eiji Kawaguchi 2値画像符号化方式
US20170249547A1 (en) * 2016-02-26 2017-08-31 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Holistic Extraction of Features from Neural Networks
CN107239825B (zh) * 2016-08-22 2021-04-09 赛灵思电子科技(北京)有限公司 考虑负载均衡的深度神经网络压缩方法
CN107239823A (zh) * 2016-08-12 2017-10-10 北京深鉴科技有限公司 一种用于实现稀疏神经网络的装置和方法
CN107239824A (zh) * 2016-12-05 2017-10-10 北京深鉴智能科技有限公司 用于实现稀疏卷积神经网络加速器的装置和方法
US10515302B2 (en) * 2016-12-08 2019-12-24 Via Alliance Semiconductor Co., Ltd. Neural network unit with mixed data and weight size computation capability
CN106951962B (zh) * 2017-03-22 2020-09-01 南京地平线机器人技术有限公司 用于神经网络的复合运算单元、方法和电子设备
CN107153873B (zh) * 2017-05-08 2018-06-01 中国科学院计算技术研究所 一种二值卷积神经网络处理器及其使用方法
CN107292352B (zh) * 2017-08-07 2020-06-02 北京中星微人工智能芯片技术有限公司 基于卷积神经网络的图像分类方法和装置
CN107729995A (zh) * 2017-10-31 2018-02-23 中国科学院计算技术研究所 用于加速神经网络处理器的方法和系统及神经网络处理器
CN107844829A (zh) * 2017-10-31 2018-03-27 中国科学院计算技术研究所 用于加速神经网络处理器的方法和系统及神经网络处理器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170168990A1 (en) 2015-12-11 2017-06-15 Sap Se Adaptive tile matrix representation and multiplication
WO2017154946A1 (ja) 2016-03-09 2017-09-14 日本電気株式会社 情報処理装置、情報処理方法、データ構造およびプログラム
CN106447034A (zh) 2016-10-27 2017-02-22 中国科学院计算技术研究所 一种基于数据压缩的神经网络处理器、设计方法、芯片
CN106529670A (zh) 2016-10-27 2017-03-22 中国科学院计算技术研究所 一种基于权重压缩的神经网络处理器、设计方法、芯片
CN106650924A (zh) 2016-10-27 2017-05-10 中国科学院计算技术研究所 一种基于时间维和空间维数据流压缩的处理器、设计方法

Also Published As

Publication number Publication date
US20210182666A1 (en) 2021-06-17
IL274535B1 (en) 2024-07-01
IL274535A (en) 2020-06-30
CN107977704B (zh) 2020-07-31
CN107977704A (zh) 2018-05-01
WO2019091020A1 (zh) 2019-05-16
US11531889B2 (en) 2022-12-20
JP2021503644A (ja) 2021-02-12

Similar Documents

Publication Publication Date Title
JP7052034B2 (ja) 重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサ
US11875268B2 (en) Object recognition with reduced neural network weight precision
CN107818367B (zh) 用于神经网络的处理系统和处理方法
KR102347119B1 (ko) 가산기를 이용한 다차원 텐서의 데이터 액세스
JP7450815B2 (ja) 階層的重み疎畳み込み処理のための方法とシステム
CN108510058B (zh) 神经网络中的权重存储方法以及基于该方法的处理器
CN109324827B (zh) 用于处理用于访问数据的指令的装置、方法和系统
CN110689109A (zh) 神经网络方法和装置
TWI678617B (zh) 用於在使用加法器之多維張量中存取資料之系統、電腦實施方法及設備
US11014231B2 (en) Robotic device task learning
CN107766292B (zh) 一种神经网络处理方法及处理系统
CN107610146A (zh) 图像场景分割方法、装置、计算设备及计算机存储介质
KR20220011208A (ko) 신경망 트레이닝 방법, 비디오 인식 방법 및 장치
CN108376283B (zh) 用于神经网络的池化装置和池化方法
CN115346125B (zh) 一种基于深度学习的目标检测方法
JP2021527859A (ja) 深層領域拡張を使用した画像内の不規則形状のセグメント化
WO2022095984A1 (en) Method and system for convolution with workload-balanced activation sparsity
CN108846430A (zh) 一种基于多原子字典的图像信号的稀疏表示方法
JPWO2020054402A1 (ja) ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法
CN113313132B (zh) 对抗样本图像的确定方法、装置、电子设备及存储介质
GB2567038A (en) Accessing prologue and epilogue data
CN111931615B (zh) 一种机器人目标识别方法、系统、装置和存储介质
CN116402138A (zh) 一种多粒度历史聚合的时序知识图谱推理方法及系统
CN117744720A (zh) 卷积网络轻量化处理方法、装置、存储介质与电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200619

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R150 Certificate of patent or registration of utility model

Ref document number: 7052034

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150