JPH08161282A - 多重命令語の多重データ型の神経網専用のディジタルアレイプロセッサーおよびこれを利用して構成されたシステム - Google Patents

多重命令語の多重データ型の神経網専用のディジタルアレイプロセッサーおよびこれを利用して構成されたシステム

Info

Publication number
JPH08161282A
JPH08161282A JP7247447A JP24744795A JPH08161282A JP H08161282 A JPH08161282 A JP H08161282A JP 7247447 A JP7247447 A JP 7247447A JP 24744795 A JP24744795 A JP 24744795A JP H08161282 A JPH08161282 A JP H08161282A
Authority
JP
Japan
Prior art keywords
data
memory
neural network
array processor
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7247447A
Other languages
English (en)
Inventor
Shomon Kin
鐘門 金
Yonsen So
▲よん▼宣 宋
Meigen Kin
明源 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KANKOKU DENSHI TSUSHIN KENKYUSHO
Electronics and Telecommunications Research Institute ETRI
Original Assignee
KANKOKU DENSHI TSUSHIN KENKYUSHO
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KANKOKU DENSHI TSUSHIN KENKYUSHO, Electronics and Telecommunications Research Institute ETRI filed Critical KANKOKU DENSHI TSUSHIN KENKYUSHO
Publication of JPH08161282A publication Critical patent/JPH08161282A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/50Adding; Subtracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/52Multiplying; Dividing
    • G06F7/523Multiplying only
    • G06F7/53Multiplying only in parallel-parallel fashion, i.e. both operands being entered in parallel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Optimization (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Neurology (AREA)
  • Multi Processors (AREA)
  • Advance Control (AREA)
  • Complex Calculations (AREA)

Abstract

(57)【要約】 【課題】 VLSIの技術を利用したディジタルプロセッサ
ー設計において、神経網専用のプロセッサーの具現また
は神経網専用の並列プロセッサーの具現に関するもので
ある。 【解決手段】 本発明は演算のパイプライン動作のため
に分離されたメモリー構成(WM,XM)をもつメモリーお
よび汎用レジスターブロック10、プログラムメモリーお
よび制御ブロック11、各種の演算を遂行する演算器ブロ
ック12およびプロセッサー間の通信のための通信ブロッ
ク13の4個のブロック、そしてプログラム用のバス14と
データ用のバス15に分離された形態のバス(BUS)から
構成されることを特徴として、現在のディジタル方式の
VLSI技術を利用して神経網モデルをシミュレーションす
るためのハードウェア(チップ)を安定的に製作するこ
とができる効果がある。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、VLSI(Very Large
Scale Integration)の技術を利用したディジタルプロ
セッサー設計において、多重命令語の多重データ型すな
わちMIMD(Multiple Insruction stream,Multiple Data
stream)型の神経網専用のプロセッサーまたは神経網
専用の並列プロセッサーの具現に関するものである。
【0002】
【従来の技術及び発明が解決しようとする課題】神経網
(ニューラルネットワーク)の研究において追及されて
いることは、生物体における認識方法と類似なモデルを
探すことである。
【0003】このため、生物学的な研究の外に、生物学
的な分析を利用した数学的なモデリングとこのシミュレ
ーションを通じた研究が実施されている。
【0004】しかし、シミュレーションを遂行するため
には高速のコンピューターが必要である。
【0005】既存のコンピューターを利用したシミュレ
ーションは長時間が消費されてしまうので所期の結果を
得るためには相当の忍耐力が必要である。
【0006】それで、神経網モデルを専門的にシミュレ
ーションすることができるハードウェアの研究が進行し
ている。
【0007】これは実験室の段階であるばかりでなく、
実際に常用されているシステムもある。
【0008】私達はこのような具現方法の中で、現段階
で適用可能なディジタルのVLSI技術を利用してハードウ
ェアを具現する。
【0009】図6は現在かなり使用されている神経モデ
ルの中の誤差逆伝播モデルの構造図である。
【0010】このモデルは順方向の経路演算と逆方向の
経路演算からなっている。
【0011】順方向経路の基本動作は一つの神経細胞と
呼ばれる第2層のM1において、第1層から来る入力値
(NK)と加重値(WK1)が乗算され、その結果を合わせ
たものが神経細胞M1に入って来ると非線形の函数をへて
再び第3層の入力値として出力される。
【0012】第3層でも同じ動作をし、出力として結果
が出て来る。
【0013】逆方向経路の動作も前のものと類似であ
る。
【0014】関連の書として、”Parallel Distributed
Processing, Vol.l, David E Rumelhart, et al, A Br
adford Book Company”がある。
【0015】このモデルの特徴をみると、並列演算のモ
デルであるということと、処理しなければならないデー
タ(入力値と加重値の乗算およびこれらの合わせの演
算)が多いということである。
【0016】それで、並列演算を行なうことができるシ
ステムをもつと効果的に神経網モデルをシミュレーショ
ンすることができる。
【0017】神経網のシステムを具現する方法の中で電
子的な方法を利用した具現方法にはディジタル方法とア
ナログ方法がある。
【0018】しかし、現在の技術を利用してアナログ方
法として具現すると、集積度は良好であるが、システム
が安定化されておらず、学習させる方法が難しくなる。
【0019】ディジタル方法を利用した具現は、集積度
が低いが、その外の問題点が相当に解決される。
【0020】それで、現在の技術としては、ディジタル
方法を利用した具現が実際の問題から適用することが容
易である。
【0021】このために、多様な方法が提案されている
が、それなりの問題点がある。
【0022】したがって本発明は、相当のデータ処理を
必要とする神経網モデルを効果的に迅速にシミュレーシ
ョンすることができる構造をもつMIMID型の神経網専用
のディジタルアレイプロセッサーをVLSIチップ上に形成
したものを提供することを目的とする。
【0023】また、前記プロセッサーから構成され、最
適の構造をもつシステムを提供することにその目的があ
る。
【0024】
【課題を解決するための手段】本発明は、従来技術の特
定部分の性能を向上させたものではなく、独自の構造を
もつVLSIチップを設計したものである。
【0025】プロセッサーは汎用のマイクロプロセッサ
ーの構造を逸脱して神経網モデルを遂行することを目的
として設計されている。
【0026】プロセッサー内部にはメモリーがあり、メ
モリー構造は神経網モデルのシミュレーションを容易に
行なうことができるようになっている。
【0027】演算器の構造と内部のデータ経路もやはり
シミュレーションを容易に行なうことができるようにな
っている。
【0028】並列プロセッサーのプロセッサー間の通信
は、既存のハンドシェーキング方法を改善することによ
って、神経網モデルをシミュレーションすることが容易
になっている。
【0029】
【発明の実施の形態】以下、添付の図面を参照して本発
明の実施形態を詳細に説明する。
【0030】図1は、本発明の一実施形態であるアレイ
プロセッサーの全体の構造図であって、メモリーおよび
汎用レジスターブロック10、プログラムメモリーおよび
制御ブロック11、演算器ブロック12および通信ブロック
13の4個のブロックから構成されている。
【0031】そしてバス(BUS)は、プログラム用14と
データ用15とに分離されている。
【0032】プロセッサーの動作は、プログラムメモリ
ーに設定されている命令語のとおり遂行される。
【0033】命令語(command)は、神経網モデルを容
易にシミュレーションできるようなものとなっており、
命令語の構成がプロセッサーのハードウェア構造を決定
する。
【0034】図2は、本発明の一実施形態であるアレイ
プロセッサーを構成する演算器の構造図である。
【0035】符号WMは加重値メモリーから来るデータ、
XMは入力メモリーから来るデータ、ACCは累算器の出
力、rfoは汎用レジスターの出力、そしてIOは4方向の
通信ポートから来るデータの中の一つである。
【0036】AC,AVはそれぞれキャリとオーバフローフ
ラグであり、AN/AZ/APは累積器の値が負数/ゼロ/正数
を示すフラグである。
【0037】図2と関連して、演算器は、2段階パイプ
ライン並列−並列乗算器20、並列加算器/減算器21、論
理器22、そして累算器23とフラグレジスター24から構成
されている。
【0038】また、データ臨時貯蔵用のレジスター25と
データ選択用のMUXを包含している。
【0039】前記演算器の特徴は、パイプライン動作を
するものであり、このために二つの面を考慮した。
【0040】その第一は、ハードウェア構造の側面であ
る。
【0041】乗算器は2段階パイプライン動作をしてお
り、そして加算器/減算器と直列に連結されて3段階パ
イプライン動作をする。
【0042】その第二は、パイプライン動作のためのデ
ータの供給である。
【0043】連続的なデータ供給のために二つの分離さ
れたメモリーを使用する。
【0044】神経網モデルに重要な加重値をもっている
メモリー(WM)30と入力値をもっているメモリー(XM)
31とを分離している。
【0045】加重値は、神経網モデルの演算が行なわれ
る学習と認識段階の冒頭からプロセッサーがもっている
と有利である。
【0046】しかし、入力値は、認識過程からは外部か
ら継続的に入らなければならないので、プロセッサーが
もっている必要はないが、学習のときにはプロセッサー
がもっていることが有利である。
【0047】データ経路は、動作速度を考慮して可能な
限り最短の経路を選択し、プロセッサー内から流れるデ
ータの経路を均等にした。
【0048】このために、論理回路を累算器の外に置い
て、そして外部から来るIO値は可能な限り短い経路のみ
を流れて行くようにする。
【0049】図3は、メモリーブロックを示している。
【0050】二つの独立したメモリーがあり、汎用レジ
スターは図1にのみ表示されている。
【0051】汎用レジスターは、神経網をシミュレーシ
ョンすることにおいて大変重要な部分である。
【0052】神経網は単純な演算モデルを使用している
が、実際にプログラムを作成すると特定の変数の反復的
な使用が必要である。
【0053】このような変数の反復的な使用のために汎
用レジスターを使用するとプロセッサーの性能を向上さ
せることができる。
【0054】加重値メモリー30には、8個のメモリーポ
インターレジスターがある。
【0055】神経網モデルをシミュレーションすると、
メモリーの連続的な使用というよりは、幾つかの連続す
るメモリーアドレスがグループを成しており、このよう
なグループが反復して使用される。
【0056】それで、加重値メモリー30には、多数個の
ポインターレジスター32は必ず必要である。
【0057】そして、アドレスを計算するための演算器
34も必要である。
【0058】入力値をもっているメモリー31は、加重値
より小さい個数のアドレスポインター33を有していてよ
いが、やはり多数個のアドレスポインターが必要であ
る。
【0059】そしてアドレスを計算するための増加器35
があるだけで効果的にメモリーを使用することができ
る。
【0060】メモリーの分離された構成(WM,XM)は、
演算のパイプライン動作のために必要である。
【0061】そして、並列プロセッサーの性能を決定す
る通信の瓶の首の現象を解決するためには、可能なら大
きい容量の内部メモリーが効果的である。
【0062】レジスター37は、アドレスを臨時に貯蔵
し、アドレスバス38は、アレイプロセッサーの外部から
データをアップ/ダウンローディングするために使用さ
れる。
【0063】図4は、本発明による通信ポートの構造図
であって、入力ポートブロック40、出力ポートブロック
41およびデータを入出力するためのポートを予め指定す
るレジスター46から構成されている。
【0064】前記入力ポートブロック40は、入力のため
に状態を表示するフラグ(IRS)47、データ貯蔵のため
のバッファー42およびデータ入力時に四つのデータの中
の一つからデータを選択して受け入れるMUX44から構成
されている。
【0065】前記出力ポートブロック41は、出力のため
に状態を表示するフラグ(ORS)48、データ貯蔵のため
のバッファー43およびデータ出力時に四つのデータバッ
ファーの中の一つのバッファーにデータを送るためにデ
ータを選択するDEMUX45から構成されている。
【0066】本発明の実施形態においては、ハンドシェ
ーキング方法を利用して通信する。
【0067】プロセッサーは、4方向に通信しており、
4方向の中で一度に一つの方向に通信が行なわれる。
【0068】本発明の実施形態においては、このような
通信方向を予めレジスター46に定めて使用するので、迅
速な通信が行なわれ得るようになっている。
【0069】図5は、設計したプロセッサーを使用して
構成することができるシステムの一つの例である。
【0070】プロセッサーが4方向の通信をしているの
で、最適の構造は2次元(2-Dimension)の形態であ
る。
【0071】他の形態の並列システムの構造をもつこと
もできる。
【0072】そして、必要なら接続回路52を置いている
ので、外部メモリー34をもつことができる。
【0073】ホストコンピューター53に連結するため
に、接続回路51を必要とする。
【0074】アドレスバス56は、単方向であるので、ホ
ストコンピューター53から単方向にアドレスを送ってお
り、データバス55は双方向のバスであるので、双方向の
データ交換が可能である。
【0075】前記のように構成されて動作する本発明の
実施形態によって、現在のディジタル方式のVLSI技術を
利用して神経網モデルをシミュレーションするためのハ
ードウェア(チップ)を安定的に製作することができる
効果がある。
【0076】また、プログラムが可能なディジタル方式
を利用して多様な神経網モデルをシミュレーションする
ことができる。
【0077】また、設計されたチップは、並列システム
にプロセッシングエレメントとして採択することができ
て数個乃至数百個のチップを連結した大規模の並列シス
テムとしての具現が可能であり、また数個のチップを連
結して特定の目的の専用システムにも使用することがで
きる。
【0078】
【発明の効果】前記チップは神経網モデルに適合した独
創的な演算器、メモリー、通信ポートおよびプログラム
メモリーの構造をもっているので、効果的に神経網モデ
ルをシミュレーションすることができる。
【図面の簡単な説明】
【図1】 アレイプロセッサーの構造図である。
【図2】 アレイプロセッサー演算器の構造図である。
【図3】 アレイプロセッサーメモリー部の構造図であ
る。
【図4】 アレイプロセッサー通信部の構造図である。
【図5】 アレイプロセッサーを利用したシステム設計
の例示図である。
【図6】 ハードウェア設計に重要に使用される神経網
モデルの構造図である。
【符号の説明】
10 汎用レジスターとメモリーブロック 11 プログラムと制御のためのブロック 12 演算器ブロック 13 通信ブロック 20 2段階パイプライン並列−並列乗算器 21 並列加算器/減算器 22 論理器 23 累算器 24 状態フラグレジスター 25 データ貯蔵用レジスター 26 MUX 32,33,37 レジスター 38 アドレスバス(BUS) 40 入力ポートブロック 41 出力ポートブロック 42 データ入力のためのレジスターバッファー 43 データ出力のためのレジスターバッファー 44 MUX 45 DEMUX 46 レジスター 50 アレイプロセッサー 51 データダウン/アップローディング回路 53 コンピューターまたはシステム 55,56 バス

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】 VLSI技術を利用した神経網専用のディジ
    タルアレイプロセッサーにおいて、 演算のパイプライン動作のために分離されたメモリー構
    成(WM,XM)をもつメモリーおよび汎用レジスターブロ
    ック(10)、プログラムメモリーおよび制御ブロック
    (11)、2段階パイプライン並列−並列乗算器(20)と
    並列加算器/減算器(21)と論理器(22)と累算器(2
    3)とを備えて構成されて必要な各種の演算を遂行する
    演算器ブロック(12)、およびプロセッサー間の通信の
    ための通信ブロック(13)の4個のブロック、そしてプ
    ログラムをアップ/ダウンローディングするためのプロ
    グラム用バス(14)とデータを伝達するためのデータ用
    バス(15)に分離された形態のバス(BUS)を備えて構
    成されることを特徴とするMIMD型の神経網専用のディジ
    タルアレイプロセッサー。
  2. 【請求項2】 前記演算器ブロック(12)は、乗算の演
    算を行なう2段階パイプライン並列−並列乗算器(2
    0)、加算と減算の演算を行なう並列加算器/減算器(2
    1)、論理演算およびこれと関連する演算を行なう論理
    器(22)、演算の結果を再び貯蔵する累算器(23)、キ
    ャリフラグ(AC)とオーバフローフラグ(AV)と累算器
    の値が負数/ゼロ/正数を示すフラグ(AN/AZ/AP)とを
    貯蔵するためのフラグレジスター(24)、データを臨時
    に貯蔵するためのレジスター(25)およびデータ選択用
    MUX(26)を備えていることを特徴とする請求項1記載
    のMIMD型の神経網専用のディジタルアレイプロセッサ
    ー。
  3. 【請求項3】 前記演算器ブロック(12)は、その乗算
    器(20)が2段階パイプライン動作し、加算器/減算器
    と直列に連結されて3段階のパイプライン動作を行なう
    ことを特徴とする請求項1記載のMIMD型の神経網専用の
    ディジタルアレイプロセッサー。
  4. 【請求項4】 前記演算器ブロック(12)は、連続的な
    データ供給のために、神経網モデルに重要な加重値をも
    っているメモリー(WM)(30)と入力値をもっているメ
    モリー(XM)(31)とを分離した構造のメモリーをもつ
    ことを特徴とする請求項3記載のMIMD型の神経網専用の
    ディジタルアレイプロセッサー。
  5. 【請求項5】 前記演算器ブロック(12)のデータ経路
    は、可能な限り最短の経路を選択しプロセッサー内から
    流れて行くデータの経路を均等にするために、論理器
    (22)を累算器(23)の外に置いて外部から来るIO値は
    可能な限り短い経路のみを流れて行くように構成される
    ことを特徴とする請求項4記載のMIMD型の神経網専用の
    ディジタルアレイプロセッサー。
  6. 【請求項6】 前記メモリーおよび汎用レジスターブロ
    ック(10)は、 変数の反復的な使用のために使用されてプロセッサーの
    性能を向上させる汎用レジスター、 加重値を貯蔵するためのsRAM(30)、連続するメモリー
    アドレスのグループを指定するための多数個のポインタ
    ーレジスター(32)、住所を計算するための加算器(3
    4)、および住所を臨時に貯蔵するためのレジスター(3
    7)を備えて構成される加重値メモリー(WM)、 入力値を貯蔵するためのsRAM(31)、連続するメモリー
    アドレスのグループを指定するための多数個のポインタ
    ーレジスター(33)、アドレスを計算するための増加器
    (35)、およびアドレスを臨時に貯蔵するためのレジス
    ター(37)を備えて構成される入力値メモリー(XM)、
    およびアレイプロセッサーの外部からデータをアップ/
    ダウンローディングするためのアドレスバス(38)を備
    えていることを特徴とする請求項1記載のMIMD型の神経
    網専用のディジタルアレイプロセッサー。
  7. 【請求項7】 前記通信ブロック(13)は、 入力のために状態を表示するフラグ(IRS)(47)、 データ貯蔵のためのバッファー(42)およびデータ入力
    時に四つのデータの中で一つのデータを選択して受け入
    れるMUX(44)を含む入力ポートブロック(40)、 出力のために状態を表示するフラグ(ORS)(48)、デ
    ータ貯蔵のためのバッファー(43)およびデータ出力時
    に四つのデータバッファーの中で一つのバッファーにデ
    ータを送るために選択するDEMUX(45)を含む出力ポー
    トブロック(41)、およびデータを入出力するためのポ
    ートを予め指定するレジスター(46)を備えていること
    を特徴とする請求項1記載のMIMD型の神経網専用のディ
    ジタルアレイプロセッサー。
  8. 【請求項8】 前記プロセッサーは、4方向に通信し、
    4方向の中で通信方向を予めレジスター(46)に定めて
    使用するので、迅速な通信が可能なことを特徴とする請
    求項1記載のMIMD型の神経網専用のディジタルアレイプ
    ロセッサー。
  9. 【請求項9】 神経網専用のディジタルアレイプロセッ
    サーを備えてなるシステムにおいて、 2次元形態に配列された請求項1乃至請求項8のいずれ
    か記載の前記プロセッサー(50)、ホストコンピュータ
    ー(53)に連結するための接続回路(51)、外部のメモ
    リー(54)を接続するための接続回路(52)、双方向の
    データ交換が可能なデータバス(55)およびホストコン
    ピューター(53)から単方向にアドレスを送るためのア
    ドレスバス(56)を備えて構成されることを特徴とする
    MIMD型の神経網専用のディジタルアレイプロセッサーを
    利用したシステム。
JP7247447A 1994-12-06 1995-09-26 多重命令語の多重データ型の神経網専用のディジタルアレイプロセッサーおよびこれを利用して構成されたシステム Withdrawn JPH08161282A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR94-32940 1994-12-06
KR1019940032940A KR0138859B1 (ko) 1994-12-06 1994-12-06 다중 명령어 다중 데이타형 신경망 전용 디지탈 어레이 프로세서 및 이를 이용해 구성된 시스템

Publications (1)

Publication Number Publication Date
JPH08161282A true JPH08161282A (ja) 1996-06-21

Family

ID=19400443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7247447A Withdrawn JPH08161282A (ja) 1994-12-06 1995-09-26 多重命令語の多重データ型の神経網専用のディジタルアレイプロセッサーおよびこれを利用して構成されたシステム

Country Status (2)

Country Link
JP (1) JPH08161282A (ja)
KR (1) KR0138859B1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008502029A (ja) * 2004-03-16 2008-01-24 テクノロジー プロパティーズ リミテッド コンピュータ・プロセッサ・アレイ
US10387298B2 (en) 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
JP2021527864A (ja) * 2018-06-19 2021-10-14 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 実行時再構成可能なニューラル・ネットワーク・プロセッサ・コア
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3709553B2 (ja) * 2000-12-19 2005-10-26 インターナショナル・ビジネス・マシーンズ・コーポレーション 演算回路および演算方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008502029A (ja) * 2004-03-16 2008-01-24 テクノロジー プロパティーズ リミテッド コンピュータ・プロセッサ・アレイ
JP4856053B2 (ja) * 2004-03-16 2012-01-18 ブイエヌエス ポートフォリオ エルエルシー コンピュータ・プロセッサ・アレイ
US11461615B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. System and method of memory access of multi-dimensional data
US11263512B2 (en) 2017-04-04 2022-03-01 Hailo Technologies Ltd. Neural network processor incorporating separate control and data fabric
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11238331B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method for augmenting an existing artificial neural network
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US11514291B2 (en) 2017-04-04 2022-11-29 Hailo Technologies Ltd. Neural network processing element incorporating compute and local memory elements
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
US10387298B2 (en) 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
JP2021527864A (ja) * 2018-06-19 2021-10-14 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 実行時再構成可能なニューラル・ネットワーク・プロセッサ・コア
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor

Also Published As

Publication number Publication date
KR960024997A (ko) 1996-07-20
KR0138859B1 (ko) 1998-06-15

Similar Documents

Publication Publication Date Title
CN109543832B (zh) 一种计算装置及板卡
CN109104876B (zh) 一种运算装置及相关产品
CN107563497B (zh) 用于稀疏人工神经网络的计算装置和运算方法
CN109522052B (zh) 一种计算装置及板卡
CA1184661A (en) Information processing system
US7447720B2 (en) Method for finding global extrema of a set of bytes distributed across an array of parallel processing elements
CN108470009B (zh) 处理电路及其神经网络运算方法
US5081573A (en) Parallel processing system
CN109685201B (zh) 运算方法、装置及相关产品
US4839851A (en) Programmable data path device
CN109472356A (zh) 一种可重构神经网络算法的加速装置及方法
JPH08161282A (ja) 多重命令語の多重データ型の神経網専用のディジタルアレイプロセッサーおよびこれを利用して構成されたシステム
CN209231976U (zh) 一种可重构神经网络算法的加速装置
Fu Special computer architecture for pattern recognition and image processing-An overview
CN112801276B (zh) 数据处理方法、处理器及电子设备
CN115081603A (zh) 执行Winograd卷积的计算装置、集成电路装置及板卡
CN109102074B (zh) 一种训练装置
Ngo FPGA hardware acceleration of inception style parameter reduced convolution neural networks
CN111382848A (zh) 一种计算装置及相关产品
Fiske et al. The reconfigurable arithmetic processor
JPH04364525A (ja) 並列演算装置
CN115081605A (zh) 暂存Winograd卷积中的神经元数据的缓存、装置与板卡
Arif et al. A neural network accelerator using matrix memory with broadcast bus
WO2001088691A2 (en) Method and apparatus of dsp resource allocation and use
CN115600657A (zh) 一种处理装置、设备、方法及其相关产品

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20021203