JP4845350B2 - Parallel processing unit - Google Patents
Parallel processing unit Download PDFInfo
- Publication number
- JP4845350B2 JP4845350B2 JP2004166134A JP2004166134A JP4845350B2 JP 4845350 B2 JP4845350 B2 JP 4845350B2 JP 2004166134 A JP2004166134 A JP 2004166134A JP 2004166134 A JP2004166134 A JP 2004166134A JP 4845350 B2 JP4845350 B2 JP 4845350B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- signal
- input
- feature
- neuron
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、パターン認識等の情報処理に適用可能な並列処理技術に関するものである。 The present invention relates to a parallel processing technique applicable to information processing such as pattern recognition.
従来、大規模な多層神経回路網を小規模な回路を用いて実現する方法として、時分割処理により行う方法が知られる(例えば、特許文献1,2を参照)。多層神経回路網をアナログ・デジタル混載または融合型回路として実装する場合、2次元平面にニューロン、シナプス等の構成要素を全て並列配置し、並列処理を実現することは困難な場合が多い。そのため従来技術では、少数のニューロンまたはシナプス回路要素を用いて時分割処理が行われる。また、大規模なネットワーク構造を小規模なネットワークモジュールに分割して行う方法も従来から開示されている(例えば、特許文献3,4を参照)。
しかしながら、従来の技術のうち、時分割処理により行う方式では大規模な問題を解くためには、同一のハードウエアを時分割で使用するため、問題の複雑さや規模の大きさに応じて処理時間が長くなり、神経回路網が本来持つ並列処理の利点を活かしきれていないという問題があった。 However, among the conventional techniques, the time division processing method uses the same hardware in order to solve a large-scale problem, so the processing time depends on the complexity of the problem and the size of the scale. There is a problem that the advantage of the parallel processing inherent in the neural network cannot be fully utilized.
また、各ニューロンの受容野構造(シナプス結合荷重分布)のメモリからのローディング頻度、或いは各階層の中間処理結果を保持するメモリからの中間結果の読み出し頻度が高いほどメモリアクセス時間に起因して処理時間が遅くなるという問題、更に、スイッチング素子を用いてニューロン出力及び荷重データを切り替える場合には、スイッチングに要する消費電力が累積して全体としての消費電力が非常に大きくなるという問題があった。 In addition, the higher the loading frequency from the memory of the receptive field structure (synaptic connection load distribution) of each neuron, or the readout frequency of the intermediate result from the memory holding the intermediate processing result of each layer, the processing is caused by the memory access time. When switching the neuron output and load data using a switching element, there is a problem that the power consumption required for switching is accumulated and the overall power consumption becomes very large.
また、小規模なネットワークモジュールに分割する方法では、全体としての回路規模は小さくならないというという欠点があった。 Further, the method of dividing into small network modules has a disadvantage that the circuit scale as a whole is not reduced.
本発明は以上の問題に鑑みてなされたものであり、階層型神経回路網の各層を複数の演算素子でもって時分割で行う場合に、演算効率を大幅に向上させることを目的とする。 The present invention has been made in view of the above problems, and it is an object of the present invention to greatly improve calculation efficiency when each layer of a hierarchical neural network is performed in a time division manner with a plurality of calculation elements.
本発明の目的を達成するために、例えば本発明の並列処理装置は以下の構成を備える。 In order to achieve the object of the present invention, for example, a parallel processing apparatus of the present invention comprises the following arrangement.
すなわち、ニューロン素子間で共通の局所受容野構造を有する階層型神経回路網において、
受容野を定めるシナプス結合に入力されるデータとして前段の階層レベルに属するニューロン素子からの出力信号を、各分割信号が他の分割信号と時系列上で重複部分を有するように分割する分割多重化手段を有することを特徴とする。
That is, in a hierarchical neural network having a local receptive field structure common between neuron elements,
Division multiplexing that divides the output signal from the neuron element belonging to the previous hierarchical level as data input to the synaptic connection that defines the receptive field so that each divided signal has an overlapping part in time series with other divided signals It has the means.
本発明の構成により、階層型神経回路網の各層を複数の演算素子でもって時分割で行う場合に、演算効率を大幅に向上させることができる。 According to the configuration of the present invention, when each layer of the hierarchical neural network is performed in a time division manner with a plurality of arithmetic elements, the arithmetic efficiency can be greatly improved.
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。 Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
[第1の実施形態]
図1は、本実施形態に係る並列処理装置の基本構成を示すブロック図である。本実施形態に係る並列処理装置は同図に示すように、データ入力制御回路1、ニューロンアレイ回路ブロック2、シナプスアレイ回路ブロック3、処理結果保持メモリ4、分割多重化信号生成回路ブロック5、受容野構造制御回路ブロック6、および全体制御回路ブロック7を主たる構成要素とする。
[First Embodiment]
FIG. 1 is a block diagram showing a basic configuration of a parallel processing apparatus according to the present embodiment. As shown in the figure, the parallel processing apparatus according to the present embodiment includes a data
ここで、多層神経回路網をアナログ・デジタル混載または融合型回路として実装する場合、2次元平面にニューロン、シナプス等の構成要素を全て並列配置し、並列処理を実現することは困難な場合が多い。そのため、本実施形態においても少数のニューロンまたはシナプス回路要素を用いて時分割処理を行う。すなわち、各層における処理を時分割で行う。 Here, when a multilayer neural network is implemented as an analog / digital mixed circuit or a fusion circuit, it is often difficult to realize parallel processing by arranging all the components such as neurons and synapses in parallel on a two-dimensional plane. . Therefore, also in this embodiment, time division processing is performed using a small number of neurons or synapse circuit elements. That is, processing in each layer is performed in a time division manner.
また、従来技術で行う時分割処理では、各ニューロンの受容野構造(シナプス結合荷重分布)のメモリからのローディング頻度、或いは各階層の中間処理結果を保持するメモリからの中間結果の読み出し頻度が高いほど処理時間が遅くなり、消費電力が増大するが、以下に説明する多重化データ表現を用いることにより、メモリアクセスに起因する処理速度の低下とスイッチングエネルギによる消費電力の増大などを回避することが可能となる。 Also, in the time division processing performed in the prior art, the loading frequency of the receptive field structure (synaptic connection load distribution) of each neuron from the memory or the reading frequency of the intermediate result from the memory holding the intermediate processing result of each hierarchy is high. The processing time becomes slower and the power consumption increases, but by using the multiplexed data expression described below, it is possible to avoid a decrease in processing speed due to memory access and an increase in power consumption due to switching energy. It becomes possible.
図1において、データ入力制御回路1は、画像データなどをセンサ或いはデータベース等から入力する為の制御回路で、その内部には一次記憶用メモリを有する。
In FIG. 1, a data
ニューロンアレイ回路ブロック2は、階層処理構造中の所定階層に属するニューロン回路が複数個配列する。即ち、本実施形態では、ある時間範囲にニューロンアレイ回路ブロック2を用いて実現するのは、多層神経回路網の一階層(または一階層中の一特徴クラスの検出に関与するニューロン)であり、他の階層に属するニューロン(または他の特徴クラスの検出に関与するニューロン)については異なる時間帯に実現する。
In the neuron
シナプスアレイ回路ブロック3は、ニューロン間のシナプス結合回路が2次元アレイ状に配列する。ここでは、異なる階層間でシナプス結合がある場合について説明する。シナプスアレイ回路ブロック3は、ある一つの階層レベルへのシナプス結合を実現する。
In the synapse
シナプスアレイ回路ブロック3は、受容野構造制御回路ブロック6により、ニューロンアレイ回路ブロック2内のニューロン回路との結合構造が制御される。受容野構造制御回路ブロック6は、自身が有する内部メモリに特徴クラスに応じた受容野構造データを格納している。
In the synapse
処理結果保持メモリ4は、ニューロンアレイ回路ブロック2からの出力を一時的に保持するメモリである。分割多重化信号生成回路ブロック5は、シナプスアレイ回路ブロック3にニューロンアレイからの出力信号を時間的に分割多重化して供給する。
The processing
全体制御回路7は各回路ブロックの動作を制御して多層神経回路網において下位層から上位層への信号入出力を制御する。
The
なお本実施形態に係る並列処理装置が実現する多層神経回路網は、フィードフォワード結合型に限らず、回帰結合またはフィードバック結合を含む構成であってもよい。 Note that the multilayer neural network realized by the parallel processing device according to the present embodiment is not limited to the feedforward coupling type, and may include a regression coupling or a feedback coupling.
図5は、本実施形態に係る並列処理装置が実現する多層神経回路網のモデルの構成を示す図である。 FIG. 5 is a diagram showing a configuration of a model of a multilayer neural network realized by the parallel processing device according to the present embodiment.
同図に示した神経回路網は、入力データ中の局所領域において、対象または幾何学的特徴などの認識(検出)に関与する情報を階層的に扱うものであり、その基本構造はいわゆるConvolutionalネットワーク構造(LeCun,Y. and Bengio Y., 1995, “Convolutional Networks for Images Speech,and Time Series” in Handbook of Brain Theory and Neural Networks (M. Arbib,Ed.), MIT Press, pp.255-258)である。最終層(最上位層)からの出力は認識結果としての認識された対象のカテゴリとその入力データ上の位置情報である。 The neural network shown in the figure handles information related to recognition (detection) of objects or geometric features in a local area in input data hierarchically, and its basic structure is a so-called Convolutional network. Structure (LeCun, Y. and Bengio Y., 1995, “Convolutional Networks for Images Speech, and Time Series” in Handbook of Brain Theory and Neural Networks (M. Arbib, Ed.), MIT Press, pp. 255-258) It is. The output from the final layer (uppermost layer) is a recognized target category as a recognition result and position information on the input data.
図5において、データ入力層101は、CMOSセンサ、或いはCCD素子等の光電変換素子からの局所領域データを入力する層である。特徴検出層102a(1,0)は、データ入力層101より入力された画像パターンの局所的な低次の特徴(特定方向成分、特定空間周波数成分などの幾何学的特徴のほか色成分特徴を含んでもよい)を全画面の各位置を中心として局所領域(或いは、全画面にわたる所定のサンプリング点の各点を中心とする局所領域)において同一箇所で複数のスケールレベル又は解像度で複数の特徴カテゴリの数だけ検出する。そのために、特徴の種類(例えば、幾何学的特徴として所定方向の線分を抽出する場合にはその幾何学的構造である線分の傾き)に応じた受容野構造を有し、その程度に応じたパルス列を発生するニューロン素子から構成される。
In FIG. 5, a
特徴統合層103a(2,0)は、所定の受容野構造(以下、受容野とは直前の層の出力素子との結合範囲を、受容野構造とはその結合荷重の分布を意味する)を有し、パルス列を発生するニューロン素子からなり、特徴検出層102a(1,0)からの同一受容野105内にある複数のニューロン素子出力の統合(局所平均化、最大出力検出等によるサブサンプリングなどの演算)を行う。また、特徴統合層内のニューロンの各受容野は同一層内のニューロン間で共通の構造を有している。これを荷重の共有(weight sharing)という。
The
特徴検出層102aの後続の特徴検出層((1,1)、(1,2)、…、(1,M))の各々、及び特徴統合層103aの後続の特徴統合層((2,1)、(2,2)、…、(2,M))の各々は、それぞれ所定の受容野構造を持ち、上述した各層と同様に機能する。すなわち、特徴検出層((1,1)、…)は、特徴検出モジュール104a(104bについても同じ)において複数の異なる特徴の検出を行い、特徴統合層((2,1)、…)は、特徴統合モジュール106a(106bについても同じ)において前段の特徴検出層からの複数の特徴に関する検出結果の統合を行う。
Each of the feature detection layers ((1, 1), (1, 2),..., (1, M)) subsequent to the feature detection layer 102a, and the feature integration layer ((2, 1) subsequent to the feature integration layer 103a. ), (2, 2),..., (2, M)) each have a predetermined receptive field structure and function in the same manner as the above-described layers. That is, the feature detection layer ((1, 1),...) Detects a plurality of different features in the
但し、特徴検出層は同一チャネルに属する前段の特徴統合層の細胞素子出力を受けるように結合(配線)されている。また、特徴統合層103で行う処理であるサブサンプリングは、同一特徴カテゴリの特徴検出細胞集団からの局所的な領域(当該特徴統合層ニューロンの局所受容野)からの出力についての平均化、或いは最大値検出などを行うものである。 However, the feature detection layer is coupled (wired) to receive the cell element output of the preceding feature integration layer belonging to the same channel. In addition, subsampling, which is processing performed in the feature integration layer 103, is performed by averaging the output from the local region (local receptive field of the feature integration layer neuron) from the feature detection cell population of the same feature category, or maximizing Value detection is performed.
図8A、8Bは、ある特徴検出(或いは特徴統合)細胞(特徴検出層内のニューロン)に対する受容野を形成する特徴統合(或いは特徴検出)細胞のニューロン群(ni)からの出力(当該細胞から見ると入力)に関与する結合手段の構成を示す図である。信号伝達部203は局所的な共通バスラインを構成し、この信号伝達ライン上に複数のニューロンからのパルス信号が時系列に並んで伝達される。
8A and 8B show the output (from the cell) of the neuron group (ni) of the feature integration (or feature detection) cells that form a receptive field for a certain feature detection (or feature integration) cell (neuron in the feature detection layer). It is a figure which shows the structure of the coupling | bonding means which participates when it sees and input. The
いわゆる、興奮性結合ではシナプス結合回路においてパルス信号の増幅を行い、抑制性結合は逆に減衰を与える。パルス信号により情報の伝達を行う場合、増幅及び減衰はパルス信号の振幅変調、パルス幅変調、位相変調、周波数変調のいずれによっても実現することができる。本実施形態においては、シナプス結合回路は、主にパルスの位相変調素子として用い、信号の増幅は、特徴に固有な量としてのパルス到着時間の実質的な進み、減衰は実質的な遅れとして変換される。パルス位相変調を行う回路としては、特開平10−327054号公報、特開平5−37317号公報、特開平6−61808号公報などに開示される構成が知られる。 In so-called excitatory coupling, pulse signals are amplified in a synaptic coupling circuit, and inhibitory coupling conversely provides attenuation. When information is transmitted using a pulse signal, amplification and attenuation can be realized by any of amplitude modulation, pulse width modulation, phase modulation, and frequency modulation of the pulse signal. In this embodiment, the synapse coupling circuit is mainly used as a phase modulation element of a pulse, and signal amplification is converted into a substantial advance of the pulse arrival time as a characteristic intrinsic amount, and attenuation is converted as a substantial delay. Is done. As a circuit for performing pulse phase modulation, configurations disclosed in JP-A-10-327054, JP-A-5-37317, JP-A-6-61808 and the like are known.
シナプス結合回路がパルス位相変調を行う場合には、出力先のニューロンにおいて、個々の特徴に固有な時間軸上の到着位置(位相)を与えるが、その位相に加えて入力信号のレベル(位相で与えられる)に所定のシナプス荷重に相当する係数を掛けた値に相当する位相シフトを付与することもできる。この場合、定性的には興奮性結合はある基準位相に対する到着パルスの位相の進みを、抑制性結合では同様に遅れを与えるものである。 When the synapse coupling circuit performs pulse phase modulation, the arrival position (phase) on the time axis specific to each feature is given to the output destination neuron, but in addition to the phase, the level of the input signal (in phase) Phase shift corresponding to a value obtained by multiplying a given coefficient by a coefficient corresponding to a predetermined synaptic load. In this case, qualitatively, the excitatory coupling gives a phase advance of the arrival pulse with respect to a certain reference phase, and the inhibitory coupling similarly gives a delay.
図8Aにおいて、各ニューロン素子nj(1≦j≦k)は、パルス信号(スパイクトレイン)を出力し、いわゆるintegrate-and-fire型の入出力処理を行う。先ずニューロン回路について説明する。各ニューロン素子は、いわゆるintegrate-and-fireニューロンを基本として拡張モデル化したもので、入力信号(アクションポテンシャルに相当するパルス列)を時空間的に線形加算した結果が閾値を越したら発火し、パルス状信号を出力する点では、いわゆるintegrate-and-fireニューロンと同じである。 In FIG. 8A, each neuron element nj (1 ≦ j ≦ k) outputs a pulse signal (spike train), and performs so-called integral-and-fire type input / output processing. First, the neuron circuit will be described. Each neuron element is an expansion model based on so-called integrate-and-fire neurons. When the result of linear addition of the input signal (pulse train corresponding to the action potential) exceeds the threshold value, it fires and pulses This is the same as a so-called integrate-and-fire neuron in that a state signal is output.
図8Bは、ニューロン素子としてのパルス発生回路(CMOS回路)の動作原理を表す基本構成の一例を示し、所定の時間窓内での入力パルス信号の重み付き積分を実行可能としている。 FIG. 8B shows an example of a basic configuration representing the operation principle of a pulse generation circuit (CMOS circuit) as a neuron element, which enables execution of weighted integration of an input pulse signal within a predetermined time window.
ここでは、入力信号として興奮性と抑制性の入力を受けるものとして構成されている。なお、各ニューロン素子のパルス発火タイミングの動作制御機構等に関しては、本願の主眼とするところではないので説明を省略する。 Here, it is configured to receive an excitatory and inhibitory input as an input signal. Note that the operation control mechanism of the pulse firing timing of each neuron element is not the main point of the present application, and thus the description thereof is omitted.
次に、階層構造を有する神経回路網において分割多重化した信号を生成する方法について説明する。 Next, a method for generating a division multiplexed signal in a neural network having a hierarchical structure will be described.
ある上位階層ニューロンの受容野内の下位階層からの出力は、下位階層における全てのニューロン出力の部分集合をなしている。いわゆるConvolutional Network構造においては、同一階層レベルの同一特徴クラスに属するニューロン間で受容野構造が共通の構造を有するが、上位階層各ニューロンに入力される下位階層ニューロン出力の部分集合は、部分的な重複を有するデータセットである。そこで、一つの受容野構造に相当するシナプスアレイ回路には、下位階層ニューロン出力の異なるデータセットを分割多重化して入力する。 The output from the lower layer in the receptive field of a certain upper layer neuron forms a subset of all the neuron outputs in the lower layer. In the so-called Convolutional Network structure, neurons that belong to the same feature class at the same hierarchical level have a common receptive field structure, but the subset of lower-layer neuron output that is input to each upper-layer neuron is partially A data set with duplicates. Therefore, a synapse array circuit corresponding to one receptive field structure is inputted by dividing and multiplexing different data sets of lower layer neuron outputs.
与えられた受容野構造中の所定の位置にあるシナプス回路に入力されるデータは特徴検出層のニューロンの位置(入力画像データ上の位置と対応がつく)に応じて決まり、かつそのデータは既に読み込み済みである。このことから、特徴検出層の各ニューロンへの信号入力動作を所定の順序で行う場合に、特徴検出層ニューロンの受容野内の各シナプス回路に入力されるべき特徴統合層ニューロン出力は、後段の各特徴検出層ニューロンの位置に応じて決まるので、各シナプス回路へ入力される信号は特徴検出層ニューロンの走査順序により決まる時系列データとして予め生成しておくことができる。即ち、シナプス回路ごとに与える特徴統合層出力データを時系列データとして予め格納してある全てのニューロンからの出力データの所定のサンプリングを行うことにより部分再生を行うことができる。 The data input to the synapse circuit at a given position in a given receptive field structure depends on the position of neurons in the feature detection layer (corresponding to the position on the input image data), and the data is already It has been read. Therefore, when the signal input operation to each neuron in the feature detection layer is performed in a predetermined order, the feature integration layer neuron output to be input to each synapse circuit in the receptive field of the feature detection layer neuron is Since it is determined according to the position of the feature detection layer neuron, a signal input to each synapse circuit can be generated in advance as time series data determined by the scanning order of the feature detection layer neuron. That is, partial reproduction can be performed by performing predetermined sampling of output data from all neurons stored in advance as feature series output data given to each synapse circuit as time series data.
本実施形態では、特徴検出層の前段にある特徴統合層の所定の特徴クラスに属する全てのニューロン(全部でn・m個)からの出力を時系列的に順次(ラスタ形式などにより)読み出し(図3Aに図示のn・m個の時系列データ)、所定の処理結果保持メモリ4(SDRAM、MRAM、FRAMなど)に読み出しデータとして格納する。 In this embodiment, outputs from all neurons (total n · m) belonging to a predetermined feature class in the feature integration layer in the preceding stage of the feature detection layer are sequentially read in time series (in a raster format or the like) ( (N · m time-series data shown in FIG. 3A) and stored as read data in a predetermined processing result holding memory 4 (SDRAM, MRAM, FRAM, etc.).
その後、分割多重化信号生成回路ブロック5によって、特徴検出層の各ニューロンの受容野に属する特徴統合層ニューロン出力(処理結果保持メモリ4から読み出したデータ)をそれぞれ図3Aに示す如く重複部分を有しつつ分割し、分割したそれぞれのデータを図3Bに示す如く時間的につなぎ合わせて一つの時系列データとし(図3B)、または分割したそれぞれのデータを図3Cに示す如く並列出力して、シナプスアレイ回路の各シナプス(シナプス1、シナプス2、…)に分岐入力する。この方法を利用することにより任意の波形の部分的な再生を高精度でかつ高速に行うことができる。なお、処理結果保持メモリ4からの読み出しデータに対して、所定の信号変換を行っても良い。例えば、ニューロン回路およびシナプス回路でパルス信号を扱う場合には、読み出しデータの値に応じたパルス位相またはパルス幅の信号データに変換しても良い。
Thereafter, the division multiplexing signal
なお、図4Aに示すように、区間が互いに重複しない部分的切り出しデータを複数のメモリに格納して並列出力してもよい。この場合、分割多重化信号生成回路ブロック5は例えば図4Bに示す如く、区分化サンプリング部59、メモリデータ転送制御部56及び複数のメモリ57(M1, M2, …, Mk)、パルス信号生成器55(PG1, PG2, …, PGk)、D/A変換器52(DA1, DA2, …, DAk)、および並列出力ポート54を有する必要がある。
As shown in FIG. 4A, partial cutout data whose sections do not overlap each other may be stored in a plurality of memories and output in parallel. In this case, as shown in FIG. 4B, for example, the division multiplexed signal
隣接するメモリ間でデータ転送が可能とし、ある特徴クラスに属する特徴検出層ニューロンの位置が順次切り替わるごとに、メモリ内の各データアドレスをシフトして重複しないデータを隣接するメモリから転送することにより、各メモリから出力すべき部分的切り出しデータの更新を行い、各部分データについてD/A変換、パルス信号生成を行って並列出力する。このように、各メモリ内に保持されるデータの内容は、データ転送の前後で重複した区間データになっており、全体として多重化したデータ転送を行っている。 Data transfer between adjacent memories is possible, and each time the position of a feature detection layer neuron belonging to a certain feature class is sequentially switched, each data address in the memory is shifted to transfer non-overlapping data from the adjacent memory. Then, the partial cut-out data to be output from each memory is updated, and D / A conversion and pulse signal generation are performed on each partial data and output in parallel. As described above, the contents of the data held in each memory are section data which are overlapped before and after data transfer, and multiplexed data transfer is performed as a whole.
図3Bに示すデータの縦軸の出力レベルは、パルス位相(値が0から2πの範囲とする)によるニューロン出力の表現形式では、位相の値が小さいほど高い出力レベルを表す。また、図3Bのデータは連続的な曲線表示をしているが、実際には、受容野内各ニューロン出力をサンプリングして得られる離散的なデータである。パルス位相表現では、図6に示すように一定の時間幅で分割された各区間がそれぞれ下位層の異なるニューロンに対応し、その区間内の位置(アナログ量)でパルス位相表現を行う。 The output level on the vertical axis of the data shown in FIG. 3B represents a higher output level as the phase value is smaller in the representation format of the neuron output by the pulse phase (value is in the range of 0 to 2π). The data of FIG. 3B is a continuous curve display, but is actually discrete data obtained by sampling each neuron output in the receptive field. In the pulse phase expression, as shown in FIG. 6, each section divided by a certain time width corresponds to a different neuron in the lower layer, and the pulse phase expression is performed at a position (analog amount) in the section.
時系列データの部分的切り出しは、図2Aに示す分割多重化信号生成回路ブロック5内部の多重化サンプリング回路51により行われる。多重化サンプリング回路51は、一連のデータセットから所定の区間データを抽出する機能である区分化サンプリングを行う。分割多重化信号生成回路ブロック5は図2に示す如く、関数生成回路50、多重化サンプリング回路51、D/A変換器52及びデマルチプレクサ53、パルス信号生成器55を主たる構成要素とする。
Partial segmentation of time-series data is performed by a
ここでは、処理結果保持メモリ4から読み出したデータを入力し、多重化サンプリング回路51で図3に示すように各シナプス回路へ入力する複数の時系列データセットのサンプリングを行い、関数生成器50でデジタル波形を生成する。また、D/A変換器52とパルス信号生成器55で前段の階層レベルのニューロン出力レベルに応じた位相を有するパルス位相変調信号を生成する。このパルス信号の位相基準は所定のタイミング信号(クロック信号)により与えられる。
Here, the data read out from the processing
部分的切り出しデータは、上位層ニューロンの受容野に属する下位層ニューロンからの出力のうち、2次元配列する上位層ニューロンアレイ回路をラスタ走査したときに、ニューロン間で共通の構造をもつ受容野構造内の特定位置のシナプス回路に入力されるべきデータを時系列化したものである。シナプスアレイ回路上の各シナプス番号(シナプス1、シナプス2、…)はラスタ走査順に配列している。
Partially cut-out data is a receptive field structure that has a common structure among neurons when raster scanning a two-dimensionally arranged upper layer neuron array circuit among the outputs from lower layer neurons belonging to the upper layer neuron's receptive field Data to be input to a synapse circuit at a specific position in the time series. The synapse numbers (
多重化サンプリング回路51の構成が同時並列的に上記部分的切り出しデータを複数(例えば、シナプスアレイ回路の1列分)のポートから出力するようになっている場合には、シナプスアレイ回路ブロック3と分割多重化信号生成回路5の各入出力ポート(図2Bでは分割多重生成回路5の並列出力ポート54に相当)を並列接続可能な様にする。
When the multiplexed
この時系列データセットは対応するシナプス回路ブロックが近接していれば(即ち、シナプスにより変調された信号を受けるニューロンが互いに近接した位置にあれば)、図3Aに示すデータの互いに重複する区間でサンプリングされたデータとなる。 In this time-series data set, if the corresponding synapse circuit blocks are close to each other (that is, if the neurons receiving signals modulated by the synapses are in close proximity to each other), the data shown in FIG. It becomes sampled data.
この多重化サンプリング回路51は、特徴統合層のある特徴クラスに関与する全てのニューロンからの出力データ(時系列的にサンプリングされているものとする)から部分的に重複する区間のデータを区分データとして切り出し、各区分データを時間的につなぎ合わせ一つの時系列データを生成する(図3B参照)か、或いは各区分データを同時並列的に出力する(図3C参照)。
The multiplexed
本実施形態では、神経回路網の複数ニューロン出力の表現形式として、このように元の完全なデータのうち部分的な区間データを単位とする複数データセットを一まとめにして扱うデータ表現形式を分割多重化表現といい、特に前者のように時間的にずらして行う表現形式を時分割多重化表現という。 In this embodiment, as a representation format of a plurality of neuron outputs of a neural network, a data representation format that handles a plurality of data sets in units of partial section data in the original complete data in this way is divided. It is called multiplexed expression, and an expression form that is shifted in time like the former is called time division multiplexed expression.
多重化サンプリング回路51及び関数生成回路50から生成される時系列データはD/A変換器52でD/A変換され、デマルチプレクサ53により時間各区分データを所定のシナプス回路に分岐出力する。この分岐はデマルチプレクサ回路53が内蔵するスイッチング回路において、所定のクロック信号と同期する時間区分の更新タイミングデータを入力するたびにスイッチが切り替わることにより行われる。
The time-series data generated from the multiplexed
予めシナプス結合の位置に応じてその信号の時間軸上の位置が所定の範囲内に収まるように設定されている場合には、そのシナプスの位置を時間軸上のパルス信号位置で識別し、クロック信号と同期して動作するデマルチプレクサ53を用いて信号を分岐させ、所定のシナプス回路に特徴統合層からの出力信号を適切に入力させる。
If the position on the time axis of the signal is set in advance within a predetermined range according to the position of the synapse connection, the position of the synapse is identified by the pulse signal position on the time axis, and the clock The signal is branched using a
なお、分割多重化信号生成回路ブロック5で行う処理は、デジタル回路でルックアップテーブル(LUT)法によりデジタル波形を作り出し(図2AのLUT生成回路50により)、その必要範囲の信号をD/A変換器によりアナログ波形にする方法を用いても良い。
The processing performed in the division multiplexed signal
以上説明したような分割多重化を行うデータ表現形式によれば、メモリへのデータ書き込みまたはメモリからの読み出しに関する入出力動作を繰り返す必要がなく、一つの特徴クラスに付き一回のメモリアクセスで済むので、メモリアクセス時間に起因する処理時間の低下を防ぎ、高速化が可能である。 According to the data representation format for division multiplexing as described above, it is not necessary to repeat input / output operations relating to data writing to or reading from the memory, and only one memory access per feature class is required. Therefore, it is possible to prevent the processing time from being reduced due to the memory access time and increase the speed.
本実施形態では、同じクラスの特徴を検出する特徴検出(統合)層ニューロン間で受容野が共通の構造を有することを利用し、単一のニューロンのある特徴クラスに関する一受容野分のシナプスアレイ回路を用いて上述した分割多重化信号をシナプス回路に入力し、変調を受けたパルス列信号の時間窓積分を各ニューロン回路で行う。 In the present embodiment, a synapse array corresponding to one receptive field with respect to a certain feature class of a single neuron is utilized by utilizing that a receptive field has a common structure between feature detection (integration) layer neurons that detect features of the same class. The above-described division multiplexed signal is input to the synapse circuit using a circuit, and time window integration of the modulated pulse train signal is performed in each neuron circuit.
本実施形態では、シナプスアレイ回路ブロック3は、ニューロンアレイ回路ブロック2の出力先ニューロンを切り替える出力分岐手段としてのデマルチプレクサを内蔵し、次の階層レベルまたは次の特徴クラスに属するニューロンを実現するニューロンアレイブロック2へのシナプスアレイ回路ブロック3からの信号伝播は、出力先(即ち、出力先のニューロン)が一定の順序で切り替わるデマルチプレクサを介して行われる。即ち、各シナプス回路から出力される変調後のパルス列データは、それぞれのパルスが異なるニューロン回路に出力される。
In the present embodiment, the synapse
同一階層レベルで複数の異なる特徴クラスの検出に関与するニューロン回路のアレイを同一基盤上に並列配置することができない場合には、検出する特徴のクラスごとにニューロンアレイ回路ブロック内部の構成を各特徴クラスの検出に適する構成に切り替えて(或いは内部状態をリセットして)シーケンシャルに処理を行えばよい。シナプス回路構成を変える受容野構造の制御およびニューロン回路の特性制御を実現するためには、FPGA(Field Programmable Gate Array)やFPAA(Field Programmable Analog Array)などの回路構成を用いてもよい。 If an array of neuron circuits that are involved in the detection of multiple different feature classes at the same hierarchical level cannot be placed in parallel on the same board, the configuration inside the neuron array circuit block for each feature class to be detected Switching to a configuration suitable for class detection (or resetting the internal state) may be performed sequentially. In order to realize the control of the receptive field structure that changes the synapse circuit configuration and the characteristic control of the neuron circuit, a circuit configuration such as FPGA (Field Programmable Gate Array) or FPAA (Field Programmable Analog Array) may be used.
また、上述した並列処理装置をパターン認識手段としてカメラその他の画像入力手段、或いはプリンタ及びディスプレイその他の画像出力手段に搭載することができる。その結果、低消費電力で小規模な回路構成により、特定被写体の認識または検出を行って所定の動作、例えば画像入力手段については、特定被写体を中心とするフォーカシング、露出補正、ズーミング、或いは色補正などの処理を行うことができる。画像出力手段についても特定被写体に関する最適色補正などの処理を自動的に行うことができる。 Further, the parallel processing device described above can be mounted as a pattern recognition unit on a camera or other image input unit, or on a printer, display, or other image output unit. As a result, a specific object is recognized or detected by a small circuit configuration with low power consumption, and for a predetermined operation, for example, for an image input unit, focusing, exposure correction, zooming, or color correction centering on the specific object. Etc. can be performed. The image output means can also automatically perform processing such as optimum color correction for a specific subject.
次に、本実施形態に係る並列処理装置を適用したパターン検出(認識)装置を画像入力装置の一つである撮像装置に搭載させることにより、特定被写体へのフォーカシングや特定被写体の色補正、露出制御を行う場合について、図11を参照して説明する。図11は、本実施形態に係るパターン検出(認識)装置を撮像装置に用いた例の構成を示す図である。 Next, by mounting a pattern detection (recognition) device to which the parallel processing device according to this embodiment is applied to an imaging device that is one of the image input devices, focusing on a specific subject, color correction of a specific subject, exposure The case of performing the control will be described with reference to FIG. FIG. 11 is a diagram illustrating a configuration of an example in which the pattern detection (recognition) apparatus according to the present embodiment is used in an imaging apparatus.
ここで撮像装置1101は、撮影レンズおよびズーム撮影用駆動制御機構を含む結像光学系1102、CCD又はCMOSイメージセンサー1103、撮像パラメータの計測部1104、映像信号処理回路1105、記憶部1106、撮像動作の制御、撮像条件の制御などの制御用信号を発生する制御信号発生部1107、EVFなどファインダーを兼ねた表示ディスプレイ1108、ストロボ発光部1109、記録媒体1110などを具備し、更に上述した時分割多重化処理を行う並列処理装置(パターン認識装置として機能させる)を認識用並列処理装置1111として備える。
Here, the
この撮像装置1101は、例えば撮影された映像中から予め登録された人物の検出(存在位置、サイズの検出を伴う)を認識用並列処理装置1111により行う。そして、その人物の位置、サイズ情報が認識用並列処理装置1111から制御信号発生部1107に入力されると、同制御信号発生部1107は、撮像パラメータ計測部1104からの出力に基づき、その人物に対するピント制御、露出条件制御、ホワイトバランス制御などを最適に行う制御信号を発生する。
The
上述した並列処理装置をパターン検出(認識)に適用し、このように撮像装置に用いた結果、小型・低消費電力な回路で、高速に人物検出とそれに基づく撮影の最適制御を行うことができるようになる。 As a result of applying the above-described parallel processing device to pattern detection (recognition) and using it in the imaging device as described above, it is possible to perform human detection and optimum control of shooting based on it at high speed with a small and low power consumption circuit. It becomes like this.
以上説明したように本実施形態によれば、並列に複数の演算素子が結合してなる並列処理装置において複数の演算素子の中間的な出力を一括して多重化するデータ表現を用いることにより、演算効率を大幅に向上させることができる。 As described above, according to the present embodiment, by using a data expression that multiplexes intermediate outputs of a plurality of arithmetic elements at once in a parallel processing device in which a plurality of arithmetic elements are coupled in parallel. The calculation efficiency can be greatly improved.
特に、受容野構造が一部共通化される階層型神経回路網(例えば、Convolutional ネットワーク構造)において、その共通化された受容野をもつ各ニューロンに入力される複数のデータセットを時分割で処理する場合、それぞれのデータセットを一括して関数、曲線、またはルックアップテーブル形式で時分割多重化表現することにより、各データセットの入出力に伴うメモリアクセスを最小限の回数で済ませることが出来、処理速度を向上させることができる。 In particular, in a hierarchical neural network (for example, a convolutional network structure) in which the receptive field structure is partially shared, multiple data sets input to each neuron having the shared receptive field are processed in a time-sharing manner. In this case, each data set is expressed in a function, curve, or lookup table format in a time-division multiplexed manner, so that the memory access associated with each data set input / output can be minimized. , Processing speed can be improved.
[第2の実施形態]
本実施形態では多層神経回路網を実装する回路構成において、データ構造の多重化表現を異なるニューロンからの信号を周波数ドメインでの多重化により行う。
[Second Embodiment]
In the present embodiment, in a circuit configuration that implements a multilayer neural network, a multiplexed representation of a data structure is performed by multiplexing signals from different neurons in the frequency domain.
また、下位層の複数のニューロン出力(異なるベースバンド周波数の信号の混合した多重化信号)を検出する上位層ニューロンにおいて周波数ドメインでのフィルタ処理により各受容野からの信号を分離する。以下、データ構造の周波数軸上での多重化処理について説明する。 In addition, signals from each receptive field are separated by filtering in the frequency domain in an upper layer neuron that detects a plurality of lower layer neuron outputs (a multiplexed signal in which signals of different baseband frequencies are mixed). Hereinafter, the multiplexing process on the frequency axis of the data structure will be described.
本実施形態において図5に示すような同じ特徴クラスの検出に関与するニューロンの局所的受容野構造が共通化する階層型神経回路網においては、特徴統合層出力を異なる特徴検出層ニューロン(ただし、同じ特徴クラスに属する)に入力される受容野単位で異なるベースバンド周波数を割り当てても良い。即ち、各受容野に該当する時系列化された出力データ(異なるニューロンへ入力される)の「波形」信号を変調して異なるベースバンド周波数を有する搬送波信号にのせる。図12は、周波数多重化した信号の各成分(異なるニューロンへ出力される)のスペクトルを概念的に示す図である。 In this embodiment, in a hierarchical neural network in which local receptive field structures of neurons involved in detection of the same feature class as shown in FIG. Different baseband frequencies may be assigned in units of receptive fields input to (belonging to the same feature class). That is, the “waveform” signal of the time-series output data (input to different neurons) corresponding to each receptive field is modulated and placed on a carrier signal having a different baseband frequency. FIG. 12 is a diagram conceptually showing the spectrum of each component (output to different neurons) of the frequency-multiplexed signal.
周波数多重化の例として、光信号を層間で伝播する信号として用い、かつ、光波を信号伝播キャリアとし、各ニューロンからの出力のデータ構造が波長多重化されるようにした場合について次に説明する。図7に波長多重化を行う場合の要部構成図を示す。波長多重化技術については、雑誌オプトロニクス(1996年5月号)の特集記事(111〜140頁)、光技術コンタクト(2001年10月号)の特集記事(3〜31頁)などに記載されている。 As an example of frequency multiplexing, a case where an optical signal is used as a signal propagating between layers and an optical data is used as a signal propagation carrier and the data structure of the output from each neuron is wavelength-multiplexed will be described below. . FIG. 7 shows a configuration diagram of a main part when wavelength multiplexing is performed. The wavelength multiplexing technology is described in a special article (pages 111-140) of the magazine Optronics (May 1996), a special article (page 3-31) of the optical technology contact (October 2001 issue), etc. Yes.
この場合、多層神経回路網の各層は、所定の波長範囲で透明なサファイア基盤130上に構成されるCMOS回路150(IEEE Circuits and Systems Magazine, vol.1, No.3, 2001, pp.22-30.の記事:”Silicon on Sapphire CMOS for Optoelectronic Microsystems,”を参照)、波長多重化用光源120(波長の異なる複数の固定波長光源、或いは波長可変光源となる半導体レーザアレイなど)、波長選択性を有する光フィルタ100、および光電変換部(光検出器)110などにより構成される。CMOS回路150はニューロンアレイ回路および(または)シナプスアレイ回路を主たる構成要素とする。
In this case, each layer of the multilayer neural network is formed of a CMOS circuit 150 (IEEE Circuits and Systems Magazine, vol. 1, No. 3, 2001, pp. 22-) formed on a
層間結合部140には、光ファイバ、回折格子型アレイ光導波路に代表される波長選択性を有する光媒体網、或いは、光音響素子などの光偏向機能を有する空間光変調素子などを用いる。CMOS回路150がニューロンアレイ回路を含むが、シナプスアレイ回路ブロック2を含まない場合には、層間結合部140に波長によって利得の異なる光増幅装置から構成されるシナプスアレイ回路が含まれるものとする。この場合、波長可変または波長固定の光フィルタを通過後の光信号に対して波長によって利得の異なる光増幅装置をシナプス荷重に相当するデバイスとして用いてもよい。
As the
このようにシナプスアレイ回路ブロック2は、周波数軸上で多重化された信号(複数の受容野からの出力セット)からフィルタを用いて分離された各信号(電気信号または光波信号のいずれでもよい)についてシナプス荷重値と他のニューロン素子からの出力信号との所定の積和演算を各信号の属する周波数ドメインで行い、デマルチプレクサその他の分岐出力用の手段を用いて異なる周波数ドメインで求められた積和演算結果(電気信号または光波信号のいずれでもよい)をその周波数ドメインに対応する出力先ニューロンに分岐出力する。なお、パルス信号(電気信号)についてのシナプス荷重値との積和演算については、文献(A.F.Murray et al., “Pulse-Stream VLSI Neural Networks Mixing Analog and Digital Techniques,”,IEEE Trans. On Neural Networks, vol.2, pp.193-204., 1991)に記載されている技術を用いることができる。
In this way, the synapse
ニューロン素子はCMOS回路150上にアナログ・デジタル混載(融合)回路として構成され、その出力信号はニューロン素子の属する受容野に応じて(結局のところ、出力先ニューロンに応じて)異なる波長の光信号に変換され、波長多重化信号として出力される。そのために、ニューロン素子の出力部に結合して光源(半導体レーザアレイなどにより構成される)120が設定されている。 The neuron element is configured as an analog / digital mixed (fusion) circuit on the CMOS circuit 150, and its output signal is an optical signal having a different wavelength according to the receptive field to which the neuron element belongs (after all, depending on the output destination neuron). And output as a wavelength multiplexed signal. For this purpose, a light source (configured by a semiconductor laser array or the like) 120 is set in combination with the output part of the neuron element.
図5の階層型神経回路網の特徴検出層ニューロンがニューロンアレイ回路ブロック2において実現されているとき、これに結合するシナプスアレイ回路ブロック3の各シナプス回路は、特徴検出層のある特徴クラスを検出するニューロンの受容野構造を形成するものであり、特徴統合層の単一または複数の特徴クラスに属するニューロンとの結合構造の一部または全部を形成する。
When the feature detection layer neurons of the hierarchical neural network of FIG. 5 are realized in the neuron
シナプス回路ブロックが特徴検出層ニューロンの一受容野を構成する結合構造の全部を形成する場合には、特徴検出層のある特徴クラスに属する各ニューロンに入力されるべき多重化された信号は、互いに重複する受容野に属し、異なる特徴検出層ニューロンに入力されるべき同一の特徴統合層ニューロン出力である。 When the synapse circuit block forms all of the connection structure that constitutes one receptive field of the feature detection layer neuron, the multiplexed signals to be input to each neuron belonging to a feature class of the feature detection layer are mutually connected. It is the same feature integration layer neuron output that belongs to overlapping receptive fields and should be input to different feature detection layer neurons.
[第3の実施形態]
本実施形態では、階層型神経回路網のニューロンの受容野が部分的に共通の構造を有する場合に、共通する受容野構造を有する複数のニューロンに入力される複数のデジタルデータセットの構造を一括してビットの深さ方向に多重化したデータ表現形式となるようにしている。
[Third Embodiment]
In this embodiment, when the receptive fields of the neurons in the hierarchical neural network have a partially common structure, the structures of a plurality of digital data sets input to the plurality of neurons having the common receptive field structure are collectively displayed. Thus, the data representation format is multiplexed in the bit depth direction.
本実施形態の分割多重化信号生成回路ブロックは、図9に示すように、区分化サンプリング部59、パラメータ近似部65、ビット深さ方向データ変換部60、区分データ合成部61などから構成される。
As shown in FIG. 9, the division multiplexed signal generation circuit block according to the present embodiment includes a segmented
パラメータ近似部65は、例えば、各区分データの「波形」を近似するパラメトリックに表される曲線の当てはめを行い、その結果のパラメータデータ(k個あるとする)をセットにして一つの区分データとする。 For example, the parameter approximating unit 65 fits a curve represented by a parametric approximating the “waveform” of each segment data, and sets the parameter data (assuming k pieces) as a result as one segment data and To do.
データの多重化表現は、ビット深さ方向変換部60と区分データ合成部61で行われる。受容野構造の特定位置に対応するデータがQビットで表現されるとき、受容野構造が共通する出力先のニューロンの数がkとすると、そのデータ表現を図10の上図のグラフに示すようにk分割し、各出力先ニューロンへの各区分データの表現をそれぞれ、[Q/N]=pビットで行う(ここに[x]はxを丸めて整数化することを意味する)。
The multiplexed representation of data is performed by the bit depth direction converting unit 60 and the segmented
即ち、ビット深さ方向データ変換部60は、図10の下図に示すように第一の区分データには、0〜pビットが、第二の区分データにはp+1〜2pビットが割り当てられるといった要領で、ビット深さ方向に複数の区分データの分割表現を行う。 That is, the bit depth direction data conversion unit 60 assigns 0 to p bits to the first segment data and p + 1 to 2p bits to the second segment data as shown in the lower diagram of FIG. Thus, a divided representation of a plurality of segmented data is performed in the bit depth direction.
各区分データはそれぞれが、s個のパラメータデータを表すように、さらにビット深さ方向にs分割表現される。なお、ビット深さ方向の分割は、後で行われるシナプス回路による変換の結果が与えられた区分データのビット幅pに収まるように設定しておく必要があることは言うまでもない。また、各区分データは受容野構造が共通する複数ニューロンのそれぞれに入力されるべきデータであり、それぞれの受容野に属する他のニューロンからの出力である。 Each segment data is further expressed in s divisions in the bit depth direction so as to represent s parameter data. Needless to say, the division in the bit depth direction needs to be set so that the result of the conversion by the synapse circuit performed later falls within the bit width p of the given divided data. Each segment data is data to be input to each of a plurality of neurons having a common receptive field structure, and is an output from other neurons belonging to each receptive field.
区分データ合成部61は、以上のようにビット深さ方向に変換された区分データを一例として図10の下図に示すような一つの合成データを生成する。なお、図9には示していないが、区分データ合成部61は、合成されたデータに対して所定のD/A変換その他の変換を施してアナログ信号を得てもよい。
The segment
シナプスアレイ回路ブロック3は、ビット深さ方向に多重化された信号の各分割データについて、シナプス荷重値に対応する所定の演算(シナプス荷重値と分割データとの積算など)を行う。ビット深さが同じ区分データについての積和演算結果を得ると、ビット深さ方向に多重化してある各演算結果をシフトレジスタなどにより分割して抽出し、デマルチプレクサなどの分岐出力部(図1に図示せず)により各ビット深さレベルに対応したニューロン(ニューロンアレイ回路ブロック2内にある)に分岐出力する。
The synapse
なお、上述した曲線当てはめを行わない場合には、パラメータ近似部65は必要ではないが、有限個(k個とする)のデータセットで表され、かつそのデータセットの全体を多重化表現することには変わりはないものとする。 If the above-described curve fitting is not performed, the parameter approximation unit 65 is not necessary, but is represented by a finite number (k) of data sets, and the entire data set is expressed in a multiplexed manner. Shall not change.
以上の説明により、中間的なデータセットの全体の周波数多重化表現またはビット深さ方向の多重化表現を用いることにより、処理速度をさらに向上させることができる。 As described above, the processing speed can be further improved by using the frequency-multiplexed representation of the entire intermediate data set or the multiplexed representation in the bit depth direction.
なお、上記実施形態では、階層構造でもって下層から上層に向けて情報処理を行う処理系としてニューラルネットワークを用いたが、これに限定するものではない。 In the above embodiment, a neural network is used as a processing system that performs information processing from a lower layer to an upper layer with a hierarchical structure. However, the present invention is not limited to this.
Claims (11)
受容野を定めるシナプス結合に入力されるデータとして前段の階層レベルに属するニューロン素子からの出力信号を、各分割信号が他の分割信号と時系列上で重複部分を有するように分割する分割多重化手段を有することを特徴とするデータ構造を多重化した並列処理装置。 In a hierarchical neural network having a local receptive field structure common between neuron elements,
Division multiplexing that divides the output signal from the neuron element belonging to the previous hierarchical level as data input to the synaptic connection that defines the receptive field so that each divided signal has an overlapping part in time series with other divided signals A parallel processing apparatus in which data structures are multiplexed, characterized by comprising means.
受容野を定めるシナプス結合と、
前記シナプス結合に入力されるデータとして前段の階層レベルに属するニューロン素子からの出力信号を、各分割信号が他の分割信号と重複部分を有するように分割して変換する分割多重化信号生成手段と
を具備することを特徴とするデータ構造を多重化した並列処理装置。 In a hierarchical neural network having a local receptive field structure common between neuron elements,
Synaptic connections that define receptive fields;
Division multiplexed signal generating means for dividing and converting an output signal from a neuron element belonging to the previous hierarchical level as data input to the synapse connection so that each divided signal has an overlapping portion with another divided signal; A parallel processing apparatus in which data structures are multiplexed.
複数の前記出力信号をサンプリングし、複数の重複する区分の前記出力信号を抽出する区分化サンプリング手段と、
複数の区分化データを統合して一つの時系列データを生成する時系列データ生成回路と
を有することを特徴とする請求項8に記載のデータ構造を多重化した並列処理装置。 The division multiplexed signal generation means includes:
A sampling means for sampling a plurality of the output signals and extracting the output signals of a plurality of overlapping sections;
9. The parallel processing device with multiplexed data structure according to claim 8 , further comprising: a time-series data generation circuit that generates a single time-series data by integrating a plurality of segmented data.
複数の前記出力信号をサンプリングし、複数の重複しない区分の前記出力信号を抽出する区分化サンプリング手段と、
区分化データをそれぞれ格納する複数のメモリと、
データ転送の前後で重複する区分化データが存在するように前記区分化データの一部についてのデータ転送制御を前記複数のメモリ間で行うメモリ制御手段と、
前記データ転送が行われる毎に前記メモリ内の区分化データを並列出力する並列出力手段と
を有することを特徴とする請求項8に記載のデータ構造を多重化した並列処理装置。 The division multiplexed signal generation means includes:
A sampling means for sampling a plurality of the output signals and extracting the output signals of a plurality of non-overlapping sections;
A plurality of memories each storing segmented data;
Memory control means for performing data transfer control between the plurality of memories so that there is overlapping partitioned data before and after data transfer;
9. The parallel processing apparatus according to claim 8 , further comprising parallel output means for outputting the segmented data in the memory in parallel each time the data transfer is performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004166134A JP4845350B2 (en) | 2004-06-03 | 2004-06-03 | Parallel processing unit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004166134A JP4845350B2 (en) | 2004-06-03 | 2004-06-03 | Parallel processing unit |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2005346470A JP2005346470A (en) | 2005-12-15 |
JP2005346470A5 JP2005346470A5 (en) | 2010-04-22 |
JP4845350B2 true JP4845350B2 (en) | 2011-12-28 |
Family
ID=35498779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004166134A Expired - Fee Related JP4845350B2 (en) | 2004-06-03 | 2004-06-03 | Parallel processing unit |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4845350B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6958027B2 (en) | 2017-07-03 | 2021-11-02 | 富士通株式会社 | Arithmetic processing unit and control method of arithmetic processing unit |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03296819A (en) * | 1990-04-16 | 1991-12-27 | Mitsubishi Electric Corp | Method for storing data matrix |
JP2552759B2 (en) * | 1990-08-31 | 1996-11-13 | 富士通株式会社 | Database processor by multiprocessor |
JPH06187456A (en) * | 1992-12-18 | 1994-07-08 | Babcock Hitachi Kk | Neural network image recognizing method and device therefor |
JPH08221113A (en) * | 1995-02-16 | 1996-08-30 | Hitachi Ltd | Time-series data storage device and process abnormality diagnostic device |
JPH0944197A (en) * | 1995-07-26 | 1997-02-14 | Kokusai Electric Co Ltd | Voice compressing device and its controlling method |
JPH09319788A (en) * | 1996-03-29 | 1997-12-12 | Shinko Electric Ind Co Ltd | Parallel processing system by network |
JP3672399B2 (en) * | 1996-11-21 | 2005-07-20 | 株式会社東芝 | CT image reconstruction method |
JP4898018B2 (en) * | 2001-05-31 | 2012-03-14 | キヤノン株式会社 | Signal processing circuit and pattern recognition device |
-
2004
- 2004-06-03 JP JP2004166134A patent/JP4845350B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005346470A (en) | 2005-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7085749B2 (en) | Pulse signal circuit, parallel processing circuit, pattern recognition system, and image input system | |
US5080464A (en) | Optical neural network apparatus using primary processing | |
JP3583535B2 (en) | Optically addressed neural networks | |
GB2220780A (en) | Neurocomputer | |
US20040103095A1 (en) | Hierarchical processing apparatus | |
JP2005267105A (en) | Parallel pulse signal processor, pattern recognition device and picture inputting device | |
Gregory et al. | Optical characteristics of a deformable-mirror spatial light modulator | |
Mennel et al. | A photosensor employing data-driven binning for ultrafast image recognition | |
JP4845350B2 (en) | Parallel processing unit | |
Shi et al. | Parallel photonic convolutional processing on-chip with cross-connect architecture and cyclic AWGs | |
US6307588B1 (en) | Method and apparatus for address expansion in a parallel image processing memory | |
EP0998722A1 (en) | Post-processing system for optical correlators | |
US20220101006A1 (en) | Device for compensating movement of an event-driven sensor and associated observation system and method | |
Bandyopadhyay et al. | A CMOS floating-gate matrix transform imager | |
Zarkesh-Ha | An intelligent readout circuit for infrared multispectral remote sensing | |
RU2671229C1 (en) | Video signal in the television-computer system generation method for the industrial products having a circular ring form monitoring | |
JP2002358503A (en) | Signal processing circuit and pattern recognizing device | |
JPH05113588A (en) | Image input device and image data processor using the same | |
JP2621378B2 (en) | Neurocomputer | |
US20240185051A1 (en) | Methods and systems to optically realize neural networks | |
JP4174297B2 (en) | Signal processing circuit | |
JP2889275B2 (en) | Optical associative identification device | |
Ruiz-Llata et al. | Image identification system based on an optical broadcast neural network processor | |
JP2003087112A (en) | Signal processing circuit and device for recognizing pattern | |
Yuan et al. | Remote sensing crop classification model integrating 1D convolutional residual blocks and temporal attention |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070604 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070604 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20070604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110513 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111003 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111011 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141021 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4845350 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141021 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |