JPH07160664A - Neural network - Google Patents

Neural network

Info

Publication number
JPH07160664A
JPH07160664A JP5309477A JP30947793A JPH07160664A JP H07160664 A JPH07160664 A JP H07160664A JP 5309477 A JP5309477 A JP 5309477A JP 30947793 A JP30947793 A JP 30947793A JP H07160664 A JPH07160664 A JP H07160664A
Authority
JP
Japan
Prior art keywords
block
neuron
vector
neural network
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5309477A
Other languages
Japanese (ja)
Inventor
Fumiyuki Shiratani
文行 白谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP5309477A priority Critical patent/JPH07160664A/en
Publication of JPH07160664A publication Critical patent/JPH07160664A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To restore the three-dimensional shape of an object well from two parallactic pictures by using a neural network. CONSTITUTION:A neuron element part 1 is provided with n neuron elements, the neuron elements are divided into m blocks and block sequential updating is performed. Then, the output state of the respective neuron elements is determined by a saturated type linear transfer function and the outputs of the respective elements are values between '0' and '1'. Also, parameters p, q and gammafor determining the saturated type linear transfer function are changed by a prescribed form every time of the state updating. Also, in this neural network, by constraint conditions. The coupling of excitability is provided not only in the same parallax direction but also in the depth direction and the height direction.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
クに係り、特に、二つの視差のある画像(以下、視差画
像と称す)から当該画像に写っている物体の3次元形状
を復元する装置に用いて好適なニューラルネットワーク
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network and, more particularly, to a device for restoring a three-dimensional shape of an object shown in an image having two parallax images (hereinafter referred to as parallax image). And a suitable neural network.

【0002】[0002]

【従来の技術】近年、ロボットにTVカメラを2台搭載
し、これらのTVカメラで得た二つの視差画像から前方
の物体の3次元形状を復元して認識し、所定の作業をさ
せたり、邪魔になる物体を避けて自動走行させたりする
ことが考えられている。
2. Description of the Related Art In recent years, two TV cameras are mounted on a robot, and a three-dimensional shape of an object in front is restored and recognized from two parallax images obtained by these TV cameras to perform a predetermined work. It has been considered to avoid obstacles and let the vehicle run automatically.

【0003】このような視差画像から物体の3次元形状
を復元させるものとしては種々考えられるところである
が、特に、ニューラルネットワーク(以下、ニューラル
ネットと略称する)を用いたものとしては、平井−福島
モデルあるいはMarr−Poggioモデルが知られている。
Various methods can be considered for reconstructing the three-dimensional shape of an object from such parallax images. Particularly, a method using a neural network (hereinafter abbreviated as a neural network) is Hirai-Fukushima. The model or Marr-Poggio model is known.

【0004】平井−福島モデルとMarr−Poggioモデルと
では、後述するように拘束条件等は異なるが、これらの
モデルを、二つの視差画像から物体の3次元形状を復元
するための装置に適用した場合の全体的な構成は殆ど同
じであり、概略図10に示すような構成である。
Although the Hirai-Fukushima model and the Marr-Poggio model have different constraint conditions and the like as described later, these models were applied to a device for restoring the three-dimensional shape of an object from two parallax images. The overall configuration in this case is almost the same, and is the configuration as schematically shown in FIG.

【0005】図10において、画像入力部2は、レンズ
4、6、及びCCDセンサ等からなる二つの受光部5、
7を備えており、受光部5にはレンズ4により対象物体
3の画像が結像され、受光部7にはレンズ6により対象
物体3の画像が結像される。これによって、受光部5と
受光部7とからは、距離が略等しく、異なる視点から対
象物体3を撮像した二つの視差画像データが得られる。
In FIG. 10, an image input unit 2 includes lenses 4, 6 and two light receiving units 5 including CCD sensors and the like.
An image of the target object 3 is formed by the lens 4 on the light receiving section 5, and an image of the target object 3 is formed by the lens 6 on the light receiving section 7. As a result, two parallax image data obtained by imaging the target object 3 from different viewpoints with substantially equal distances are obtained from the light receiving unit 5 and the light receiving unit 7.

【0006】そして、これらの画像データはニューラル
ネット1に入力される。具体的には次のようである。い
ま、例えばニューラルネット1のi方向のニューロン素
子数が6、j方向のニューロン素子数が6、高さ方向h
のニューロン素子数が6であるとすると、受光部7で得
られた画像は図11Aに示すように、i方向に 6ドッ
ト、h方向に 6ドットの計36ドットの画像になされ、同
様に受光部5で得られた画像は図11Bに示すように、
j方向に 6ドット、h方向に 6ドットの計36ドットの画
像になされる。
Then, these image data are input to the neural network 1. Specifically, it is as follows. Now, for example, in the neural network 1, the number of neuron elements in the i direction is 6, the number of neuron elements in the j direction is 6, and the height direction is h.
Assuming that the number of neuron elements of 6 is 6, the image obtained by the light receiving unit 7 is made into an image of 6 dots in the i direction and 6 dots in the h direction for a total of 36 dots as shown in FIG. 11A. The image obtained in part 5, as shown in FIG. 11B,
An image of 36 dots, 6 dots in the j direction and 6 dots in the h direction, is formed.

【0007】そして、図11Aに示す画像の、高さがh
位置にある各ドットの強度情報、即ち濃度情報は、図1
2に示すようにニューラルネット1の高さhの位置の面
hのi方向のニューロン素子に入力バイアスとして入
力され、同様に図11Bに示す画像の、高さがh位置に
ある各ドットの強度情報は図12に示すようにニューラ
ルネット1の高さhの位置の面1h のj方向のニューロ
ン素子に入力バイアスとして入力される。なお、図1
0、図12においてはニューロン素子は白丸あるいは黒
丸で示している。白丸は当該ニューロン素子の出力が
「 0」であることを示し、黒丸は当該ニューロン素子の
出力が「1」であることを示しているが、図10及び図
12はある時刻における各ニューロン素子の出力の状態
を例示しているに過ぎないものである。また、画像のド
ットの強度情報を入力するに際して、ニューロン素子に
対応するドットの強度情報を直接入力するのではなく、
ニューロン素子に対応するドットの強度情報とその近傍
のドットの強度情報を入力してもよいものである。
The height of the image shown in FIG. 11A is h.
The intensity information of each dot at the position, that is, the density information, is shown in FIG.
Is input to the surface 1 h of i direction neuron elements at a height h of the neural network 1 as shown in 2 as an input bias, as well as the image shown in FIG. 11B, the height of each dot in the h position As shown in FIG. 12, the intensity information is input as an input bias to the neuron element in the j direction of the surface 1 h at the height h of the neural network 1. Note that FIG.
0, in FIG. 12, neuron elements are indicated by white circles or black circles. The white circles indicate that the output of the neuron element is “0”, and the black circles indicate that the output of the neuron element is “1”. It merely exemplifies the output state. When inputting the dot intensity information of the image, instead of directly inputting the dot intensity information corresponding to the neuron element,
Intensity information of dots corresponding to neuron elements and intensity information of dots in the vicinity thereof may be input.

【0008】従って、図10においてはニューラルネッ
ト1はニューロン素子が2次元的に配置されているもの
として示してあるが、これはある高さにおけるニューロ
ン素子の配置を示しているものである。
Therefore, in FIG. 10, the neural network 1 is shown as the two-dimensional arrangement of the neuron elements, but this shows the arrangement of the neuron elements at a certain height.

【0009】さて、いま理解を容易にするために高さh
が一定の面内で考えるものとすると、ニューラルネット
1に入力された画像の強度情報は、図12に示すような
互いに交差するラインに沿って送られ、交差するライン
の交点に位置するニューロン素子には二つの画像中の対
応するドットの強度情報の差が入力バイアスとして流入
する。即ち、例えば図12において8で示すニューロン
素子にはQi2で示すドットの強度情報とQj4で示すドッ
トの強度情報の差が入力バイアスとして流入する。
Now, in order to facilitate understanding, the height h
Is considered within a certain plane, the intensity information of the image input to the neural network 1 is sent along the lines intersecting each other as shown in FIG. 12, and the neuron elements located at the intersections of the intersecting lines. The difference between the intensity information of the corresponding dots in the two images flows in as an input bias. That is, for example, the difference between the dot intensity information indicated by Q i2 and the dot intensity information indicated by Q j4 flows into the neuron element indicated by 8 in FIG. 12 as an input bias.

【0010】そして、各ニューロン素子の出力にはシナ
プス結合荷重が掛け合わされて他のニューロン素子への
入力となる。つまり、各ニューロン素子には、他のニュ
ーロン素子の出力にシナプス結合荷重が掛け合わされた
値と入力バイアスとが流入し、これに伝達関数の演算を
施したものが次の時刻のニューロン素子の出力となるの
である。
Then, the output of each neuron element is multiplied by the synaptic coupling weight and becomes an input to another neuron element. In other words, the value obtained by multiplying the output of another neuron element by the synapse coupling weight and the input bias flow into each neuron element, and the result of performing the transfer function calculation on this is the output of the neuron element at the next time. It becomes.

【0011】各ニューロン素子は以上のようにして状態
更新を行うのであるが、状態更新を繰り返し、定常状態
になったときに「1」 を出力しているニューロン素子の
位置が対象物体3の3次元形状の相対的な位置を推定し
ていることになる。例えば、いま理解を容易にするため
に、定常状態になったときに「1」 を出力しているニュ
ーロン素子から基準となる面まで垂線を引いたときに図
13Aのようであったとすると、各垂線の先端の位置に
対象物体の表面があることになり、対象物体は図13B
に示すようなサドル型の形状であると推定することがで
きることになる。
The state of each neuron element is updated as described above. The state of the neuron element that outputs "1" when the state update is repeated and becomes a steady state is 3 in the target object 3. This means that the relative position of the dimensional shape is estimated. For example, to make it easier to understand, if a normal line is drawn from the neuron element that outputs "1" to the reference plane in the steady state, as shown in Fig. 13A, Since the surface of the target object is located at the position of the tip of the perpendicular, the target object is shown in FIG. 13B.
It can be presumed that the shape is a saddle type as shown in.

【0012】従って、ニューラルネット1の出力側に形
状復元部(図示せず)を設け、この形状復元部に、定常
状態に達したときに 1を出力しているニューロン素子の
座標を取り込ませ、その座標に基づいて対象物体の3次
元形状を復元する処理を行わせればよい。
Therefore, a shape restoration section (not shown) is provided on the output side of the neural network 1, and the shape restoration section is made to take in the coordinates of the neuron element which outputs 1 when the steady state is reached, The process of restoring the three-dimensional shape of the target object may be performed based on the coordinates.

【0013】さて、平井−福島モデルにおいては、伝達
関数としては出力値が 0または 1だけを出力する関数を
用いている。即ち、平井−福島モデルはいわゆる2値モ
デルである。そして、ニューロン素子間のシナプス結合
は抑制性の結合のみであり、3次元形状を再構成する際
に平滑化の処理を行うようになされている。なお、平井
−福島モデル及びその改良モデルに関しては、「電子情
報通信学会技術研究報告 NC91 (1991)」の97〜102ペー
ジに詳しい。
In the Hirai-Fukushima model, a function that outputs only 0 or 1 is used as the transfer function. That is, the Hirai-Fukushima model is a so-called binary model. The synaptic connection between neuron elements is only inhibitory connection, and smoothing processing is performed when reconstructing a three-dimensional shape. The Hirai-Fukushima model and its improved model are described in detail on pages 97-102 of the IEICE Technical Report NC91 (1991).

【0014】また、Marr−Poggioモデルは、2値モデル
である点は平井−福島モデルと同じであるが、一つの画
像中の1点は他方の画像中の高々1点とのみ対応すると
いう制約を表す抑制性の結合を持たせ、更に、視差一定
の面内において、近傍に位置するニューロン素子間にだ
け興奮性の結合を持たせている。なお、Marr−Poggioモ
デルに関しては、「Biological Cybernetics 28 (197
8)」の 223〜 239ページの「Analysis of a Cooperativ
e Stereo Algorithm」と題する論文に詳しい。
Also, the Marr-Poggio model is the same as the Hirai-Fukushima model in that it is a binary model, but one point in one image corresponds to at most one point in the other image. , And the excitatory connection is provided only between the neuron elements located in the vicinity in the plane where the parallax is constant. For the Marr-Poggio model, see “Biological Cybernetics 28 (197
8) '', pages 223 to 239, `` Analysis of a Cooperativ ''
Learn more about the paper entitled "e Stereo Algorithm".

【0015】[0015]

【発明が解決しようとする課題】しかしながら、平井−
福島モデルでは3次元形状を再構成する際に平滑化の処
理が必要となるので、構成が複雑になるばかりでなく、
処理時間も長くかかるという問題がある。
However, Hirai-
In the Fukushima model, smoothing processing is required when reconstructing a three-dimensional shape, so not only the configuration becomes complicated, but also
There is a problem that it takes a long processing time.

【0016】更に、上記の論文には、平井−福島モデル
を改良したモデルを用いてランダムドットステレオグラ
ムから物体の3次元形状を復元する場合、ドット密度が
大きくなると誤ったニューロンが発火する危険性が増す
と述べられているので、このモデルを用いて良好に3次
元形状を復元しようとすると、入力する二つの視差画像
のドット数をあまり増やせないという制限が生じてくる
ことになる。
Further, in the above paper, when a three-dimensional shape of an object is restored from a random dot stereogram using a model improved from the Hirai-Fukushima model, there is a risk that a wrong neuron will fire if the dot density becomes large. Since it is stated that the three-dimensional shape is satisfactorily restored using this model, there is a limitation that the number of dots of the two parallax images to be input cannot be increased so much.

【0017】また、Marr−Poggioモデルにおいては、視
差一定の面内の近傍に位置するニューロン素子間にだけ
しか興奮性の結合が入っていないので、平面の再構成は
比較的良好に行うことができるが、奥行き方向に連続的
に変化する曲面を有する物体を再構成することは非常に
困難であるという問題がある。
Further, in the Marr-Poggio model, since excitatory coupling is included only between neuron elements located in the vicinity of the plane with a constant parallax, plane reconstruction can be performed relatively well. However, there is a problem that it is very difficult to reconstruct an object having a curved surface that continuously changes in the depth direction.

【0018】また、平井−福島モデルやMarr−Poggioモ
デルは2値モデルであるため、対象物体の3次元形状を
良好に復元することが非常に困難である。このことはシ
ミュレーションの結果判明している。
Further, since the Hirai-Fukushima model and the Marr-Poggio model are binary models, it is very difficult to properly restore the three-dimensional shape of the target object. This is known as a result of simulation.

【0019】これらを解決するための手法として、シミ
ュレーテッド・アニーリング法等が提案されてはいる
が、この手法は状態の確率的繰り返しで平衡状態を実現
するものであるので処理時間が非常に長くなり非現実的
なものである。
As a method for solving these problems, a simulated annealing method and the like have been proposed, but since this method realizes an equilibrium state by stochastic repetition of states, the processing time is extremely long. Very unrealistic.

【0020】また、平井−福島モデルやMarr−Poggioモ
デルにおいて処理効率を向上させるためには複数個のニ
ューロン素子を同時に状態更新することが考えられる
が、この場合にはニューロン素子の出力が振動状態に陥
ってしまい、定常状態にならない可能性があるものであ
る。
In order to improve the processing efficiency in the Hirai-Fukushima model and the Marr-Poggio model, it is possible to update the state of a plurality of neuron elements at the same time. In this case, the output of the neuron element is in an oscillating state. Therefore, there is a possibility that it will not be in a steady state.

【0021】本発明は、上記の課題を解決するものであ
って、対象物体が平面であっても、あるいは奥行き方向
に連続的に変化する曲面を有するものであっても、物体
形状によらず視差画像から3次元形状を良好に復元する
ことができるニューラルネットワークを提供することを
目的とするものである。
The present invention solves the above-mentioned problems, regardless of the shape of the object, whether the object is a flat surface or a curved surface that continuously changes in the depth direction. It is an object of the present invention to provide a neural network capable of excellently restoring a three-dimensional shape from a parallax image.

【0022】また、本発明は、処理を効率的に行え、し
かも平滑化処理等の後処理を必要とせずに高速に3次元
形状を復元できるニューラルネットワークを提供するこ
とを目的とする。
Another object of the present invention is to provide a neural network which can efficiently perform processing and can restore a three-dimensional shape at high speed without requiring post-processing such as smoothing processing.

【0023】[0023]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明のニューラルネットワークは、ニューロン
素子が3次元的に配置され、各ニューロン素子はその近
傍のニューロン素子と所定のシナプス結合を有する相互
結合型ニューラルネットワークであって、ニューロン素
子はm個のブロックに分割されてなり、第lブロック内
(但し、l=1,2,…,m)のニューロン素子の出力状態ベ
クトルx(l) が結合荷重行列Wklを介して第kブロック
(但し、k=1,2,…,m)に流入すると共に、第kブロッ
クには更に二つの視差画像の特徴量の類似度が入力バイ
アスベクトルθ(k) として加わって(1)式で表される
第kブロックへの総入力ベクトルu(k) が得られ、
In order to achieve the above object, in the neural network of the present invention, neuron elements are three-dimensionally arranged, and each neuron element forms a predetermined synaptic connection with a neighboring neuron element. In this mutual connection type neural network, the neuron element is divided into m blocks, and the output state vector x (l of the neuron element in the l-th block (where l = 1, 2, ..., M) is ) Flows into the k-th block (where k = 1, 2, ..., M ) via the coupling weight matrix W kl , and the k-th block is further input with the similarity of the feature amounts of the two parallax images. Adding as the vector θ (k) , the total input vector u (k) to the k-th block represented by the equation (1 ) is obtained,

【0024】[0024]

【数4】 [Equation 4]

【0025】前記総入力ベクトルu(k) に外部からの入
力の影響を制御するパラメータαを乗じた値と、前記第
kブロック内の素子の出力状態ベクトルx(k) に状態更
新前の出力値の影響を制御するパラメータγを乗じた値
とを加算して得られるベクトルの成分毎に、p,qをパ
ラメータとして
A value obtained by multiplying the total input vector u (k) by a parameter α for controlling the influence of an external input and the output state vector x (k) of the element in the k-th block are output before the state update. For each component of the vector obtained by adding the value multiplied by the parameter γ that controls the influence of the value, with p and q as parameters

【0026】[0026]

【数5】 [Equation 5]

【0027】で表される飽和型線形伝達関数を作用させ
て得られるベクトルを次の時刻での第kブロックの出力
状態ベクトルx(k) として、
The vector obtained by applying the saturated linear transfer function represented by the following is defined as the output state vector x (k) of the k-th block at the next time,

【0028】[0028]

【数6】 [Equation 6]

【0029】で表される式によって一斉に状態を更新
し、この状態更新をブロック毎に順次行い、且つこの状
態更新を行う過程において、前記飽和型線形伝達関数の
パラメータpは状態更新の度毎に 0に近付くように変化
され、パラメータqは、シナプス結合行列Wの対角ブロ
ック行列Wkkの最小固有値をmin{λk}とするとき、−
α×min{λk}/2 以上の範囲で一定値または所望の態
様で変化され、pとqの和がγとなされることを特徴と
する。
In the process of updating the states all at once by the equation represented by the formula, performing the state updating sequentially for each block, and in the process of performing the state updating, the parameter p of the saturation type linear transfer function is changed every time the state is updated. When the minimum eigenvalue of the diagonal block matrix W kk of the synapse coupling matrix W is min {λ k }, the parameter q is changed to −0.
It is characterized in that it is changed in a constant value or in a desired manner within a range of α × min {λ k } / 2 or more, and the sum of p and q is γ.

【0030】ここで、ニューロン素子間の結合は、請求
項2記載のように、視差が一定の方向に配置されている
ニューロン素子間及び奥行き方向に配置されているニュ
ーロン素子間に興奮性のシナプス結合を持たせることが
望ましいものである。
Here, the connection between the neuron elements is the excitatory synapse between the neuron elements arranged in the parallax constant direction and between the neuron elements arranged in the depth direction. It is desirable to have a bond.

【0031】[0031]

【作用】本発明のニューラルネットワークは相互結合型
ニューラルネットワークであり、ニューロン素子は3次
元的に配置されている。そして、ニューロン素子はm個
のブロックに分割されている。いくつのニューロン素子
で一つのブロックとするかは任意である。即ち、当該ニ
ューラルネットワークのニューロン素子数をnとする
と、1≦m≦nであり、m=1の場合は一つのニューロ
ン素子で一つのブロックが構成され、m=nの場合は当
該ニューラルネットワークの全てのニューロン素子で一
つのブロックが構成されることになる。
The neural network of the present invention is an interconnected neural network in which the neuron elements are three-dimensionally arranged. The neuron element is divided into m blocks. It is arbitrary how many neuron elements form one block. That is, assuming that the number of neuron elements of the neural network is n, 1 ≦ m ≦ n. If m = 1, one neuron element constitutes one block, and if m = n, the neural network One block is composed of all neuron elements.

【0032】さて、第kブロック(但し、k=1,2,…,
m)には、第lブロック(但し、l=1,2,…,m)内のニ
ューロン素子の出力状態ベクトルx(l) に結合荷重行列
klが掛け合わされたものと、入力バイアスベクトルθ
(k) が流入する。この入力バイアスベクトルθ(k) は、
二つの視差画像の特徴量の類似度を示すものである。
Now, the k-th block (however, k = 1, 2, ...,
m) is the output state vector x (l) of the neuron element in the l-th block (where l = 1, 2, ..., M ) multiplied by the coupling weight matrix W kl, and the input bias vector θ.
(k) flows in. This input bias vector θ (k) is
It is what shows the similarity of the feature-value of two parallax images.

【0033】そして、これらの流入によって(1)式で
表される第kブロックへの総入力ベクトルu(k) が得ら
れ、この総入力ベクトルu(k) に外部からの入力の影響
を制御するパラメータαを乗じた値と、第kブロック内
の素子の出力状態ベクトルx(k) に状態更新前の出力値
の影響を制御するパラメータγを乗じた値とを加算して
得られるベクトルの成分毎に、(2)式で表される飽和
型線形伝達関数を作用させ、その結果得られるベクトル
を次の時刻での第kブロックの出力状態ベクトルx(k)
として、(3)式で表される式によって一斉に状態を更
新し、この状態更新をブロック毎に順次行う。
Then, the total input vector u (k) to the k-th block represented by the equation (1) is obtained by these inflows, and the influence of the input from the outside is controlled on the total input vector u (k). Of the vector obtained by adding the value obtained by multiplying the output state vector x (k) of the element in the k-th block by the parameter γ that controls the influence of the output value before the state update The saturated linear transfer function represented by the equation (2) is applied to each component, and the resulting vector is the output state vector x (k) of the k-th block at the next time.
As described above, the state is updated all at once by the expression represented by the equation (3), and this state update is sequentially performed for each block.

【0034】そして、以上のような状態更新を行う過程
において、飽和型線形伝達関数のパラメータpは、状態
更新を行う度毎に 0に近付くように変化される。また、
qも飽和型線形伝達関数のパラメータではあるが、この
パラメータqは、シナプス結合行列Wの対角ブロック行
列Wkkの最小固有値をmin{λk}とするとき、−α×mi
n{λk}/2 以上の範囲で一定値とすることもでき、あ
るいは所望の態様で変化させることも可能である。そし
て、pとqの和がγとなされる。
In the process of updating the state as described above, the parameter p of the saturated linear transfer function is changed so as to approach 0 each time the state is updated. Also,
Although q is also a parameter of the saturated linear transfer function, this parameter q is −α × mi when the minimum eigenvalue of the diagonal block matrix W kk of the synapse coupling matrix W is min {λ k }.
It may be a constant value in the range of n {λ k } / 2 or more, or may be changed in a desired manner. Then, the sum of p and q is made γ.

【0035】以上のように、まず、本発明においてはブ
ロック・シーケンシャルな状態更新を行うことが特徴で
ある。即ち、ブロック内のニューロン素子は同期的に状
態を更新し、第1ブロックから第mブロックまで逐次的
に状態更新していくのであり、これによって処理を効率
よく、高速に行うことができる。
As described above, the feature of the present invention is that block-sequential state update is first performed. That is, the neuron elements in the block synchronously update the state and sequentially update the state from the first block to the m-th block, which allows efficient and high-speed processing.

【0036】また、本発明においては、(2)式で表さ
れる飽和型線形伝達関数が、p<y<qの範囲内におい
ては 0と 1の間の連続的な値をとることが特徴である。
勿論、最終的に定常状態になったときにはニューロン素
子の出力は 0または 1になるのであるが、定常状態に達
するまでの間にはニューロン素子の出力は 0または 1あ
るいはその間の値をとるのである。つまり、本発明のニ
ューラルネットワークは従来のような2値モデルではな
いのである。
Further, the present invention is characterized in that the saturation type linear transfer function represented by the equation (2) takes a continuous value between 0 and 1 within the range of p <y <q. Is.
Of course, when the final steady state is reached, the output of the neuron element becomes 0 or 1, but until the steady state is reached, the output of the neuron element takes 0 or 1 or a value in between. . That is, the neural network of the present invention is not a conventional binary model.

【0037】更に、本発明においては、飽和型線形伝達
関数のパラメータp,q及びγが固定値ではなく、状態
更新を行う過程において変化されることが特徴である。
勿論、qの値は状態更新の過程において一定値であって
もよいことは上述した通りである。これによって、従来
の2値モデルの欠点を回避することができる。
Furthermore, the present invention is characterized in that the parameters p, q and γ of the saturated linear transfer function are not fixed values but are changed in the process of updating the state.
Of course, the value of q may be a constant value in the process of updating the state, as described above. This makes it possible to avoid the drawbacks of the conventional binary model.

【0038】そして、これらが相互に作用することによ
って、従来の問題が解決され、処理効率が向上し、処理
が高速になり、対象物体の形状によらずその形状を良好
に復元することができる。
By interacting with each other, the conventional problems are solved, the processing efficiency is improved, the processing speed is increased, and the shape of the target object can be restored well regardless of the shape of the target object. .

【0039】[0039]

【実施例】以下、図面を参照しつつ実施例を説明する。
図1は本発明に係るニューラルネットワークの一実施例
の構成を示す図、図2は図1に示すニューロン素子部1
1の各ブロックの構成例を示す図であり、図中、11は
ニューロン素子部、12は演算評価部、13はパラメー
タ設定部、21は総入力演算部、22、23は演算部を
示す。なお、ここでは視差画像の縦方向のドット数と横
方向のドット数は同じであるとする。
Embodiments will be described below with reference to the drawings.
FIG. 1 is a diagram showing a configuration of an embodiment of a neural network according to the present invention, and FIG. 2 is a neuron element section 1 shown in FIG.
FIG. 3 is a diagram showing a configuration example of each block of 1, in which 11 is a neuron element unit, 12 is an operation evaluation unit, 13 is a parameter setting unit, 21 is a total input operation unit, and 22 and 23 are operation units. Note that, here, it is assumed that the number of dots in the vertical direction and the number of dots in the horizontal direction of the parallax image are the same.

【0040】ニューロン素子部1はn個のニューロン素
子を備えているが、これらのニューロン素子はm個のブ
ロックに分割されている。即ち、第1ブロックは、x
1,1 ,x1,2 ,…,x1,s1のs1 個のニューロン素子で
構成され、第2ブロックは、x2,1 ,x2,2 ,…,x
2,s2のs2 個のニューロン素子で構成され、同様に第m
ブロックは、xm,1 ,xm,2 ,…,xm,smのsm 個のニ
ューロン素子で構成されている。即ち、s1 +s2 +…
+sm =nである。
The neuron element section 1 includes n neuron elements, and these neuron elements are divided into m blocks. That is, the first block is x
, 1 , x 1,2 , ..., X 1, s1 consisting of s1 neuron elements, and the second block is x 2,1 , x 2,2 ,.
It is composed of s2 neuron elements of 2, s2 , and similarly,
A block is composed of sm neuron elements x m, 1 , x m, 2 , ..., X m, sm . That is, s1 + s2 + ...
+ Sm = n.

【0041】ニューロン素子には、図10〜図12に関
して説明したと同様に、距離が略等しく、異なる視点か
ら撮像された二つの画像情報の画像データが入力され、
状態更新が行われるが、以下、状態更新の態様について
詳細に説明する。
In the neuron element, as described with reference to FIGS. 10 to 12, image data of two pieces of image information captured from different viewpoints with substantially equal distances are input,
Although the state is updated, the mode of the state update will be described in detail below.

【0042】図1に示すニューラルネットワークにおい
ては状態更新はブロック・シーケンシャルな状態更新を
行う。つまり、n個のニューロン素子をm個のブロック
に分割し、個々のブロック内のニューロン素子は同期的
に状態を更新し、ブロック間では第1ブロックから第m
ブロックまで逐次的に状態更新していく。
In the neural network shown in FIG. 1, the state update is a block-sequential state update. That is, the n neuron elements are divided into m blocks, the neuron elements in each block update their states synchronously, and the blocks from the 1st block to the mth block are updated.
The state is sequentially updated up to the block.

【0043】そして、いま、n個のニューロン素子の状
態を表す状態ベクトルx=(x1,…,xnT (0 ≦
l ≦ 1;l=1,2,…,n)をm個のサブベクトルx
(k)(但し、k=1,2,…,m)に分割するものとすると、そ
れぞれのサブベクトルは次の(1)式、(3)式に従っ
て状態を更新していく。
Then, now, a state vector x = (x 1 , ..., X n ) T (0≤0) representing the states of n neuron elements.
x l ≤ 1; l = 1,2, ..., n) with m subvectors x
(k) (however, if k = 1, 2, ..., M), each subvector updates its state according to the following equations (1) and (3).

【0044】[0044]

【数7】 [Equation 7]

【0045】ここで、(1)式におけるθ(k) は、閾値
ベクトルθ=[θ(1)T,θ(2)T,…,θ(m)T]のサブベ
クトルであり、αは任意の係数である。また、(1)式
のWklは第lブロック(但し、l=1,2,…,m)から第k
ブロックへのシナプス結合を示す小行列であり、シナプ
ス行列Wとは次の式で関係付けられる。なお、係数γに
ついては後述する。
Here, θ (k ) in the equation (1) is a subvector of the threshold vector θ = [θ (1) T , θ (2) T , ..., θ (m) T ], and α is It is an arbitrary coefficient. Also, W kl in the equation (1) is calculated from the 1st block (where l = 1,2, ..., m) to the kth block.
It is a small matrix showing synaptic connections to blocks, and is related to the synapse matrix W by the following formula. The coefficient γ will be described later.

【0046】[0046]

【数8】 [Equation 8]

【0047】また、(3)式において Satで表されてい
る関数は次の(2)式で定義される飽和型の線形伝達関
数であり、この関数 Satはベクトル成分毎に作用する。
The function represented by Sat in the equation (3) is a saturated linear transfer function defined by the following equation (2), and this function Sat acts on each vector component.

【0048】[0048]

【数9】 [Equation 9]

【0049】さて、(2)式におけるp,qは飽和型線
形伝達関数 Satのパラメータであるが、これらのパラメ
ータp,qがどのような値をとればいいのかを考えると
次のようである。
Now, p and q in the equation (2) are parameters of the saturation type linear transfer function Sat, and it is as follows when considering what values these parameters p and q should take. .

【0050】いま、対称行列W=(wlk)に対してエネ
ルギー関数を次の(5)式で定義するとする。
Now, it is assumed that the energy function for the symmetric matrix W = (wl k ) is defined by the following equation (5).

【0051】[0051]

【数10】 [Equation 10]

【0052】ここで、エネルギー関数Eの係数行列W及
び係数ベクトルθは、二つの視差画像から対象物体の3
次元形状を復元するという最適化問題の評価関数の係数
と比較して決定されるものであり、従って、対象物体の
3次元形状を良好に復元するためには、この(5)式で
与えられるエネルギー関数Eの最小値もしくは良好な極
小値を求めればよいことが分かる。なお、係数行列W及
び係数ベクトルθの求め方については後述する。
Here, the coefficient matrix W and the coefficient vector θ of the energy function E are calculated from the two parallax images to be 3 of the target object.
It is determined by comparing with the coefficient of the evaluation function of the optimization problem of restoring the three-dimensional shape. Therefore, in order to favorably restore the three-dimensional shape of the target object, it is given by the equation (5). It can be seen that the minimum value or good local minimum value of the energy function E should be obtained. The method of obtaining the coefficient matrix W and the coefficient vector θ will be described later.

【0053】ところで、いま、e(k) =(1,1,…,1)と
いうk次元ベクトルe(k) を用いて、二つの関数F,G
をそれぞれ次の(6)式、(7)式のように定義する。
Now, using the k-dimensional vector e (k) of e (k) = (1, 1, ..., 1), two functions F and G
Are defined as the following equations (6) and (7), respectively.

【0054】[0054]

【数11】 [Equation 11]

【0055】このような関数を定義して解を求める手法
は、いわゆる決定論的アニーリングと称されている手法
であるが、これらの関数の解析あるいは種々のシミュレ
ーションの結果によれば、パラメータp,q,γが次の
式を満足するとき、ニューロン素子の状態更新によって
関数Gの値を減少させることができることが確認され
た。
A method of defining such a function and obtaining a solution is a so-called deterministic annealing. According to the results of analysis of these functions or various simulations, the parameters p, It has been confirmed that the value of the function G can be decreased by updating the state of the neuron element when q and γ satisfy the following expressions.

【0056】[0056]

【数12】 [Equation 12]

【0057】ここで、λk はシナプス結合行列Wの対角
ブロック行列Wkkの固有値の集合であり、min{λk}は
その固有値の中の最小値、即ち最小固有値を示すもので
ある。
Here, λ k is a set of eigenvalues of the diagonal block matrix W kk of the synapse coupling matrix W, and min {λ k } is the minimum value among the eigenvalues, that is, the minimum eigenvalue.

【0058】次に、パラメータpについてであるが、p
を種々に変化させてみると次のことが判明した。
Next, regarding the parameter p, p
When variously changed, the following was found.

【0059】pが十分に大きいときには、関数Fの最
小点から少しずれた点が関数Gの唯一の極小点になり、
エネルギー関数Eの極小点は関数Gの極小点としては現
れない。
When p is sufficiently large, a point slightly deviated from the minimum point of the function F becomes the only minimum point of the function G,
The minimum point of the energy function E does not appear as the minimum point of the function G.

【0060】pが 0に十分近いときには、エネルギー
関数Eの全ての極小点が関数Gの極小点として現れ、且
つ関数Gの極小点はエネルギー関数Eの極小点に限られ
る。
When p is sufficiently close to 0, all the minimum points of the energy function E appear as the minimum points of the function G, and the minimum points of the function G are limited to the minimum points of the energy function E.

【0061】pの値が上記との中間にあるときに
は、エネルギー関数Eの局所極小点が関数Gの極小点と
はならない場合が生じて、エネルギー関数Eの局所極小
点が解消される。
When the value of p is in the middle of the above value, the local minimum point of the energy function E may not be the minimum point of the function G, and the local minimum point of the energy function E is eliminated.

【0062】このことに関して、簡単な場合を例にとっ
て説明すると次のようである。
Regarding this, the following is a description of a simple case.

【0063】いま、エネルギー関数Eが E(x,y)=−0.8xy+0.2x+0.2y という2変数x,yに関する斉次1次式で表されたとす
ると、このエネルギー関数Eのグラフは図3Aに示すよ
うである。このグラフから、エネルギー関数Eには最小
点aと局所極小点bがあり、最急降下法により単純にエ
ネルギー関数Eの山下りを行う方法を用いると、最小点
aまたは局所極小点bのいずれか一方に収束することが
分かる。
Now, assuming that the energy function E is expressed by a homogeneous linear equation regarding two variables x and y of E (x, y) =-0.8xy + 0.2x + 0.2y, the graph of the energy function E is shown in FIG. 3A. As shown in. From this graph, the energy function E has a minimum point a and a local minimum point b, and using the method of simply descending the energy function E by the steepest descent method, either the minimum point a or the local minimum point b is used. It turns out that it converges on one side.

【0064】また、このとき、関数F、及び関数Gは、 F(x,y)=0.5(x(x−1)+y(y−1)) G(x,y)=E(x,y)+F(x,y) となり、そのグラフはそれぞれ図3B,Cに示すようで
ある。図3Bのグラフによれば、関数Fは唯一の極小点
として最小点cを持つことが分かる。また、図3Cに示
すグラフから、エネルギー関数Eの局所極小点bは、関
数Gにおいては極小点ではなくなることが分かる。即
ち、エネルギー関数Eに関数Fを加えることによりエネ
ルギー関数Eの局所極小点からより小さな値をとるエネ
ルギー関数Eの極小点へ下っていく抜け道ができること
になる。
At this time, the functions F and G are as follows: F (x, y) = 0.5 (x (x-1) + y (y-1)) G (x, y) = E (x, y) ) + F (x, y) and the graphs are as shown in FIGS. 3B and 3C, respectively. It can be seen from the graph of FIG. 3B that the function F has the minimum point c as the only minimum point. Further, from the graph shown in FIG. 3C, it is understood that the local minimum point b of the energy function E is not the minimum point in the function G. That is, by adding the function F to the energy function E, there is a loophole from the local minimum point of the energy function E to the minimum point of the energy function E having a smaller value.

【0065】このように、エネルギー関数Eに関数Fを
加えることにより新たに1つだけ生じる関数Gの極小点
は、pが 0に近付く過程で解消されていくので、状態更
新を繰り返していく過程においてpを次第に 0に近付け
ていけば、最終的にはエネルギー関数Eの最小点もしく
は良好な極小点に収束させることができることが分か
る。
As described above, the minimum point of the function G, which is newly generated by adding the function F to the energy function E, is eliminated in the process of approaching p, so that the state update process is repeated. It can be seen that when p is gradually brought closer to 0 in, it can finally be converged to the minimum point or a good minimum point of the energy function E.

【0066】以上のことから、パラメータp,q,γの
値を次の式に従って制御しながら状態更新を繰り返すの
がよいことが判明した。
From the above, it was found that it is preferable to repeat the state update while controlling the values of the parameters p, q and γ according to the following equations.

【0067】[0067]

【数13】 [Equation 13]

【0068】なお、qについては、(4−c)式で定め
られる範囲で一定値としてもよく、またこの範囲内で適
宜に変化させてもよいことが種々のシミュレーションの
結果確認された。
As a result of various simulations, it was confirmed that q may be a constant value within the range defined by the equation (4-c), or may be appropriately changed within this range.

【0069】以上のようにして状態更新を繰り返すこと
によって最終的にはエネルギー関数Eの最小点もしくは
良好な極小点に収束し、従ってニューロン素子の出力が
定常状態に達したときに「1」 を出力しているニューロ
ン素子の相対的な位置関係が求める対象物体の3次元形
状とすることができる。
By repeating the state update as described above, the energy function E finally converges to the minimum point or a good minimum point, and therefore "1" is set when the output of the neuron element reaches the steady state. The three-dimensional shape of the target object can be obtained by the relative positional relationship of the outputting neuron elements.

【0070】本発明においては以上のような状態更新が
繰り返されるのであるが、状態更新を行うについてはニ
ューロン素子間の結合荷重W及び入力バイアスθが定ま
っている必要がある。そこで、以下、ニューロン素子間
の結合荷重W及び入力バイアスθの決定法について説明
する。
In the present invention, the state update as described above is repeated, but in order to perform the state update, it is necessary that the coupling weight W between neuron elements and the input bias θ be fixed. Therefore, a method of determining the coupling weight W between the neuron elements and the input bias θ will be described below.

【0071】結合荷重及び入力バイアスを決定するに
は、まず物理的な拘束条件を定める必要がある。ここで
は、拘束条件として次の3つの条件を定める。
In order to determine the coupling load and the input bias, it is necessary to first set the physical constraint conditions. Here, the following three conditions are defined as constraint conditions.

【0072】(1)一つの画像中の1点は、他方の画像
中の高々1点とのみ整合する(2)視差は画像中のほと
んど全域で滑らかに変化する (3)同じ特徴を持ったもののみが整合する 上記の(1)、(2)の拘束条件はニューロン素子間の
結合状態を定める条件であり、それぞれ次の(8)式、
(9)式で表される。
(1) One point in one image matches with at most one point in the other image (2) Parallax changes smoothly over almost the entire image (3) Has the same characteristics Only the ones match the constraint conditions (1) and (2) above that determine the connection state between the neuron elements.
It is expressed by equation (9).

【0073】[0073]

【数14】 [Equation 14]

【0074】ここで、Dは最大視差である。例えば、D
=25と設定したとすれば、これは与えられた二つの視差
画像の視差のずれ量が25段階の奥行きのあるものまで認
識できるようにするという設定を意味するものである。
また、Nは視差画像の縦方向及び横方向のドット数であ
る。従って、N= 128とすると、左右の画像のドット数
は共に 128× 128= 16384である。
Here, D is the maximum parallax. For example, D
If = 25 is set, this means that the parallax shift amount of two given parallax images can be recognized up to a depth of 25 steps.
N is the number of dots in the vertical and horizontal directions of the parallax image. Therefore, if N = 128, the number of dots in the left and right images is 128 × 128 = 16384.

【0075】上記の(1)、(2)の拘束条件から定ま
るニューロン素子間の結合状態を示すと図4のようであ
る。図4を説明すると次のようである。いま、ある一つ
のニューロン素子に着目する。この着目素子が図4の□
で示される位置にあるものとすると、当該着目素子は、
○で示される位置にあるニューロン素子とは興奮性の結
合を有し、△で示される位置にあるニューロン素子とは
抑制性の結合を有している。その他の位置のニューロン
素子とは結合関係を有していない。
FIG. 4 shows the coupling state between the neuron elements which is determined by the constraint conditions (1) and (2). The description of FIG. 4 is as follows. Now, pay attention to a certain neuron element. This element of interest is □ in Fig. 4.
Assuming that it is in the position indicated by,
The neuron element at the position shown by ◯ has excitatory connection, and the neuron element at the position shown by Δ has inhibitory connection. It has no connection with the neuron elements at other positions.

【0076】図4から明らかなように、このニューラル
ネットワークにおいては、同一視差方向に位置されてい
る近傍のニューロン素子間だけではなく、奥行き方向に
位置されている近傍のニューロン素子間及び高さ方向に
位置されている近傍のニューロン素子間にも興奮性の結
合を有しているのであり、これによって対象物体の形状
によらず、その3次元形状を良好に復元することが可能
となるのである。
As is apparent from FIG. 4, in this neural network, not only between neighboring neuron elements located in the same parallax direction but also between neighboring neuron elements located in the depth direction and in the height direction. Since there is also excitatory coupling between neighboring neuron elements located at, it is possible to restore the three-dimensional shape of the target object regardless of the shape of the target object. .

【0077】なお、E3 の式におけるSは、図4におい
て□で示されている着目素子と興奮性結合を有するニュ
ーロン素子の集合を示すインデックスセットを示すもの
である。
Note that S in the equation of E 3 indicates an index set indicating a set of neuron elements having excitatory coupling with the target element indicated by □ in FIG.

【0078】また、上記(3)の拘束条件は入力バイア
スを定める条件であり、次の(10)式で表される。
The constraint condition (3) is a condition for determining the input bias and is expressed by the following equation (10).

【0079】[0079]

【数15】 [Equation 15]

【0080】ここで、Ψは閾値、R,Lはそれぞれ左及
び右の画像の強度値を表している。また、Vは、点
(i,j,h)のhが一定である所定の範囲に位置する
ニューロン素子の集合のインデックスセットであり、こ
こでは点(i,j,h)のhが一定である3×3の範囲
内に位置するニューロン素子の集合を表すインデックス
セットであるとする。
Here, Ψ is a threshold value, and R and L are intensity values of the left and right images, respectively. V is an index set of a set of neuron elements located in a predetermined range in which h of point (i, j, h) is constant, and here, h of point (i, j, h) is constant. It is assumed that the index set represents a set of neuron elements located within a certain 3 × 3 range.

【0081】さて、ニューロン素子iの出力をXi で表
すとき、以上の拘束条件は、A,B,Cを任意の定数と
して(11)式の形の評価関数で表される。
Now, when the output of the neuron element i is represented by X i , the above constraint condition is represented by an evaluation function of the form (11), where A, B and C are arbitrary constants.

【0082】 E=AE1 +BE2 +CE3 …(11) また、このとき、エネルギー関数が下記の(12)式で
表されるものとすると、上記の(11)式と下記の(1
2)式のエネルギー関数との係数を比較することによっ
て結合係数Wijh 及び入力バイアスθijh を決定するこ
とができる。なお、この入力バイアスθijh は、入力さ
れる二つの視差画像の特徴量の類似度を示すものであ
る。
E = AE 1 + BE 2 + CE 3 (11) Further, at this time, if the energy function is represented by the following equation (12), the above equation (11) and the following (1)
The coupling coefficient W ijh and the input bias θ ijh can be determined by comparing the coefficient with the energy function of the equation (2). The input bias θ ijh indicates the degree of similarity between the feature amounts of the two input parallax images.

【0083】[0083]

【数16】 [Equation 16]

【0084】具体的には次のようである。(11)式と
(12)式から次の(13)式が得られる。
Specifically, it is as follows. The following expression (13) is obtained from the expressions (11) and (12).

【0085】[0085]

【数17】 [Equation 17]

【0086】この(13)式において、両辺のxijh 2
ijh で置き換えることによって、2次形式を斉次一次
形式に変形することができる。なぜなら、この変形はエ
ネルギー関数の極小点の位置を変えないからである。
[0086] In this equation (13), both sides of the x IJH 2 by replacing x IJH, it is possible to deform the quadratic form in homogeneous primary format. Because this deformation does not change the position of the minimum point of the energy function.

【0087】次に、この両辺をxijh で微分し、Next, these two sides are differentiated by x ijh ,

【0088】[0088]

【数18】 [Equation 18]

【0089】を用いると次の(14)式を得る。By using, the following expression (14) is obtained.

【0090】[0090]

【数19】 [Formula 19]

【0091】ここで、この(14)式の右辺の各項は以
下のようになる。
Here, each term on the right side of the equation (14) is as follows.

【0092】[0092]

【数20】 [Equation 20]

【0093】そして更にここで、 2B, 2Cをそれぞれ
新たにB,Cと置き換え、(14)式の両辺の係数を比
較することによって、結合荷重と入力バイアスは次のよ
うに求められる。
Further, here, 2B and 2C are newly replaced by B and C, respectively, and the coefficients on both sides of the equation (14) are compared to obtain the coupling weight and the input bias as follows.

【0094】[0094]

【数21】 [Equation 21]

【0095】ここで、Here,

【0096】[0096]

【数22】 [Equation 22]

【0097】は共にクロネッカーのデルタであり、またAre both Kronecker deltas, and

【0098】[0098]

【数23】 [Equation 23]

【0099】である。It is

【0100】次に、図1、図2に示す構成の動作につい
て説明する。まず、上述したようにして結合荷重Wと入
力バイアスθを決定する。そして、図1のニューロン素
子部11の各ブロックに対して決定した結合荷重Wを与
える。
Next, the operation of the configuration shown in FIGS. 1 and 2 will be described. First, the coupling load W and the input bias θ are determined as described above. Then, the determined coupling weight W is given to each block of the neuron element unit 11 of FIG.

【0101】その後、状態更新が開始されることになる
が、いま、第lブロックの状態更新が終了し、次に第k
ブロックの状態更新が行われる場合について説明する
と、まず第lブロックの状態更新に際しては、パラメー
タ設定部13でパラメータp,q,γの値を設定し、そ
れをニューロン素子部11の各ブロックに与えると共
に、各ブロックに対して決定した入力バイアスθを流入
させる。
After that, the state update is started. Now, the state update of the l-th block is completed, and then the k-th block is updated.
Explaining the case where the state of the block is updated, first, when updating the state of the l-th block, the parameter setting unit 13 sets the values of the parameters p, q, and γ and gives them to the blocks of the neuron element unit 11. At the same time, the input bias θ determined for each block is made to flow.

【0102】これによって、第lブロックの総入力演算
部21は(1)式により総入力ベクトルu(l) を求め
る。求められた総入力ベクトルu(l) は演算部22に入
力される。また、演算部22には、パラメータ設定部1
3からγが与えられると共に、前回に行った状態更新の
ときの出力状態ベクトルx(l) (t)が演算部23から
フィードバックされる。
As a result, the total input calculation unit 21 of the l-th block obtains the total input vector u (l) by the equation (1). The calculated total input vector u (l) is input to the arithmetic unit 22. Further, the calculation unit 22 includes the parameter setting unit 1
3, γ is given, and the output state vector x (l) (t) at the time of the state update performed last time is fed back from the calculation unit 23.

【0103】これによって、演算部22は、予め設定さ
れている係数αを用いて γx(l) (t)+αu(l) …(21) を演算し、演算部23に出力する。
As a result, the calculation unit 22 calculates γx (l) (t) + αu (l) (21) using the preset coefficient α and outputs it to the calculation unit 23.

【0104】演算部23は、パラメータ設定部13から
与えられたパラメータp,qを用いて演算部22から入
力された値に対して(3)式の演算を施す。これにより
新たな出力状態ベクトルx(l)(t+1)が得られ、状
態が更新されたことになる。この出力状態ベクトルx
(l)(t+1)は演算部22にフィードバックされると
共に、演算評価部12に出力される。演算部22にフィ
ードバックされた出力状態ベクトルは次の状態更新の際
に用いられることは上述したとおりである。
The arithmetic unit 23 uses the parameters p and q given from the parameter setting unit 13 to perform the arithmetic operation of the equation (3) on the value input from the arithmetic unit 22. As a result, a new output state vector x (l) (t + 1) is obtained and the state is updated. This output state vector x
(l) (t + 1) is fed back to the calculation unit 22 and is output to the calculation evaluation unit 12. As described above, the output state vector fed back to the arithmetic unit 22 is used in the next state update.

【0105】演算評価部12は、各ブロックから入力さ
れる出力状態ベクトルに基づいて全てのニューロン素子
の出力状態を監視し、定常状態に達したか否かを評価す
る。この評価は、出力状態ベクトルが時刻tと時刻(t
+1)とで変化しているかどうか、あるいは予め定めら
れているエネルギー関数の値が時刻tと時刻(t+1)
とで変化しているかどうか、または出力状態ベクトルが
拘束条件を満たしているかどうか等により行うことがで
き、定常状態に達したと判断される場合には、1 を出力
している全てのニューロン素子の座標を出力する。そし
てこの出力に基づいて3次元形状を復元することができ
ることは上述した通りである。
The operation evaluation section 12 monitors the output states of all the neuron elements based on the output state vector input from each block, and evaluates whether or not the steady state is reached. In this evaluation, the output state vector is time t and time (t
+1) and the value of the predetermined energy function is the time t and the time (t + 1).
This can be done by checking whether or not the output state vector has changed, or whether the output state vector satisfies the constraint conditions. If it is determined that the steady state has been reached, all neuron elements that output 1 Output the coordinates of. As described above, the three-dimensional shape can be restored based on this output.

【0106】しかし、未だ定常状態に達していないと判
断される場合には、演算評価部12は、パラメータ設定
部13に対してパラメータp,q,γの次の値の出力を
指示する。パラメータ設定部13で設定された新たな
p,q,γのパラメータ値はニューロン素子部11の各
ブロックに与えられ、同時に各ブロックに対して入力バ
イアスθが流入される。
However, when it is determined that the steady state has not been reached yet, the operation evaluation section 12 instructs the parameter setting section 13 to output the next value of the parameters p, q, γ. The new p, q, and γ parameter values set by the parameter setting unit 13 are given to each block of the neuron element unit 11, and at the same time, the input bias θ flows into each block.

【0107】これによって、第kブロックの総入力演算
部21では(1)式により総入力ベクトルu(l) を演算
され、演算部22では(21)式が演算され、更に演算
部23では新たな出力状態ベクトルx(k)(t+2)が
得られ、状態が更新される。
As a result, the total input computing unit 21 of the kth block computes the total input vector u (l) by the equation (1), the computing unit 22 computes the equation (21), and the computing unit 23 creates a new one. Output state vector x (k) (t + 2) is obtained, and the state is updated.

【0108】この出力状態ベクトルx(k)(t+2)は
演算部22にフィードバックされると共に、演算評価部
12に出力され、以下、上述した処理が繰り返される。
This output state vector x (k) (t + 2) is fed back to the arithmetic unit 22 and also output to the arithmetic evaluation unit 12, and the above-described processing is repeated.

【0109】ここで、パラメータp,q,γは上述した
ように状態更新が行われる度毎に変化されるが、その変
化の態様は任意である。その一例を図5に示す。なお、
図5において、Y0 はy=−α×min{λk}/2 の位置
を示している。
Here, the parameters p, q, and γ are changed every time the state is updated as described above, but the manner of the change is arbitrary. An example thereof is shown in FIG. In addition,
In FIG. 5, Y 0 indicates the position of y = −α × min {λ k } / 2.

【0110】図5Aは、(p+q)を一定、即ちγを一
定としてpを 0に近付けていくように変化させた場合の
qの変化及び飽和型線形伝達関数 Satの線形部分の傾き
の変化を示している。また、図5Bは、qを一定として
pを 0に近付けていくように変化させた場合の飽和型線
形伝達関数 Satの線形部分の傾きの変化を示している。
更に、図5Cは、飽和型線形伝達関数 Satの線形部分の
傾きを一定としてpを0に近付けていくように変化させ
た場合のqの変化を示している。
FIG. 5A shows the change of q and the change of the slope of the linear portion of the saturated linear transfer function Sat when (p + q) is made constant, that is, when γ is made constant and p is made to approach 0. Shows. Further, FIG. 5B shows a change in the slope of the linear portion of the saturated linear transfer function Sat when q is changed and p is changed so as to approach 0.
Further, FIG. 5C shows a change in q when p is brought close to 0 while keeping the slope of the linear portion of the saturated linear transfer function Sat constant.

【0111】なお、qの値を定めるのにはシナプス結合
行列Wの対角ブロック行列Wkkの最小固有値min{λk
が定められる必要がある。この最小固有値は、実際にシ
ナプス結合行列Wの対角ブロック行列Wkkの全ての固有
値を求め、その最小値を採用するのが基本ではあるが、
図10、図12で示すi方向またはj方向に沿って並ん
でいるニューロン素子を一つのブロックとする場合に
は、第kブロック内での結合行列の最小固有値は、当該
ブロックを構成するニューロン素子数をNk としてB
(1−Nk )で求められることが分かっている。なお、
Bは上記の(11)式に用いられている係数Bである。
The value of q is determined by determining the minimum eigenvalue min {λ k } of the diagonal block matrix W kk of the synapse coupling matrix W.
Must be defined. This minimum eigenvalue is basically obtained by actually obtaining all the eigenvalues of the diagonal block matrix W kk of the synapse coupling matrix W and adopting the minimum value.
When the neuron elements arranged along the i-direction or the j-direction shown in FIGS. 10 and 12 are regarded as one block, the minimum eigenvalue of the coupling matrix in the k-th block is the neuron element forming the block. Let B be the number N k
It is known that it is calculated by (1-N k ). In addition,
B is the coefficient B used in the above equation (11).

【0112】従って、例えば図12において9で示す枠
で囲んだi方向に沿って並んでいる6つのニューロン素
子を一つのブロックとする場合には、このブロックでは
k= 6であるから、このブロックの最小固有値は−5B
であり、従ってqの最小値は 5B/ 2となる。
Therefore, for example, when the six neuron elements surrounded by the frame 9 shown in FIG. 12 and arranged in the i direction are regarded as one block, N k = 6 in this block. The minimum eigenvalue of the block is -5B
Therefore, the minimum value of q is 5B / 2.

【0113】以上のように、パラメータp,q,γの変
化のさせ方は任意に設定できるのであるが、本発明者
は、qは一定値とし、pのみを次式によって変化させれ
ば殆どの場合良好に3次元形状を復元できることを見い
出した。
As described above, the method of changing the parameters p, q, and γ can be set arbitrarily. However, the present inventor sets q to a constant value and changes only p by the following equation. In the case of, it was found that the three-dimensional shape can be restored well.

【0114】p=4.0−0.08z …(22) ここで、zは状態の更新回数であり、従ってこの場合に
は50回目の状態更新時にはp= 0となる。
P = 4.0-0.08z (22) Here, z is the number of state updates, and in this case, p = 0 at the 50th state update.

【0115】また、αは任意の係数であるので、実際に
はα= 1としてよい。更に、上記(10)式の閾値Ψ及
び(11)式の係数A,B,Cについては、A=B=Ψ
= 1.0,C=3.5 のように定めてよく、また、全てのニ
ューロン素子の初期状態は例えば 0.0で与えてよいこと
が確認されている。
Further, since α is an arbitrary coefficient, α = 1 may be set in practice. Furthermore, for the threshold value Ψ of the above equation (10) and the coefficients A, B, and C of the equation (11), A = B = Ψ
= 1.0, C = 3.5, and it has been confirmed that the initial state of all neuron elements may be given as 0.0, for example.

【0116】以上のようにして、ニューラルネットを動
作させ、拘束条件を満足した時点で1を出力しているニ
ューロン素子の座標値を取り出してみると、それが対象
物体の3次元形状の一つの解を与えていることが確認さ
れた。
As described above, when the neural network is operated and the coordinate value of the neuron element that outputs 1 when the constraint condition is satisfied is extracted, it is one of the three-dimensional shapes of the target object. It was confirmed that the solution was given.

【0117】次に、上述した動作によってランダムドッ
トステレオグラムから対象物体の3次元形状を復元する
場合のシミュレーションを行い、従来のものと比較した
結果について説明する。
Next, the result of a simulation in which the three-dimensional shape of the target object is restored from the random dot stereogram by the above-mentioned operation and comparison with the conventional one will be described.

【0118】図6、図7は第1の例を示す図であり、図
6Aに示す連続した曲面を有する物体に基づいて図6B
に示すランダムドットステレオグラムを作成し、この二
つの視差画像から3次元形状を復元させるシミュレーシ
ョンを行った。
FIGS. 6 and 7 are views showing a first example, and are based on the object having the continuous curved surface shown in FIG. 6A.
A random dot stereogram shown in Figure 2 was created, and a simulation for restoring a three-dimensional shape from these two parallax images was performed.

【0119】このとき、N= 128,D=25,α= 1,A
=B=Ψ= 1.0,C=3.5 とした。ブロックはi方向に
沿って並んでいる25個のニューロン素子を一つのブロッ
クとした。即ち、Nk =25である。従って、B= 1.0で
あるので各ブロックの最小固有値は−24であり、α= 1
であるのでqの最小値は12となるが、ここではq=12の
一定値とした。以上のことからブロックの数mはm=12
8 × 128 である。また、pは(22)式により変化さ
せた。また、全てのニューロン素子の初期状態は 0.0と
した。
At this time, N = 128, D = 25, α = 1, A
= B = Ψ = 1.0 and C = 3.5. For the block, 25 neuron elements arranged along the i direction are set as one block. That is, N k = 25. Therefore, since B = 1.0, the minimum eigenvalue of each block is −24, and α = 1
Therefore, the minimum value of q is 12, but here it is a constant value of q = 12. From the above, the number m of blocks is m = 12
It is 8 x 128. Further, p was changed by the equation (22). The initial state of all neuron elements was 0.0.

【0120】なおこの場合、N= 128に対してD=25で
あるので、ニューロン素子数が25未満のブロックができ
ることになるが、ブロックの最小固有値が25素子のブロ
ックの場合よりも大きくならなければよいことが確認さ
れているので、ブロックの素子数が25未満であってもよ
いものである。
In this case, since D = 25 for N = 128, a block having less than 25 neuron elements can be formed, but the minimum eigenvalue of the block must be larger than that of a block having 25 elements. Since it has been confirmed that this is sufficient, the number of elements in the block may be less than 25.

【0121】以上の条件により、上述した本発明の動作
をシミュレーションした結果、図7Aに示す3次元形状
が復元された。
As a result of simulating the above-described operation of the present invention under the above conditions, the three-dimensional shape shown in FIG. 7A was restored.

【0122】これに対して、Marr−Poggioモデルを用い
て3次元形状復元のシミュレーションを行うと、図7B
に示すものが得られた。なお、このものにおいてもN=
128とし、全てのニューロン素子の初期状態は 0.0とし
た。
On the other hand, when a simulation of three-dimensional shape restoration is performed using the Marr-Poggio model, FIG.
What was shown in was obtained. In this case, N =
128 and the initial state of all neuron elements was 0.0.

【0123】図7Aと図7Bとを比較すると、本発明に
よれば、連続した曲面を有する物体に関しては、従来よ
り良好に対象物体の3次元形状を復元できることが確認
された。
Comparing FIG. 7A and FIG. 7B, it was confirmed that according to the present invention, for an object having a continuous curved surface, the three-dimensional shape of the target object can be restored better than before.

【0124】図8、図9は第2の例を示す図であり、図
8Aに示す平面で構成される物体に基づいて図8Bに示
すランダムドットステレオグラムを作成し、この二つの
視差画像から3次元形状を復元させるシミュレーション
を行った。このときの条件は図6、図7に示すものと同
じとした。
FIG. 8 and FIG. 9 are diagrams showing a second example, in which the random dot stereogram shown in FIG. 8B is created based on the object constituted by the plane shown in FIG. 8A, and from these two parallax images. A simulation for restoring a three-dimensional shape was performed. The conditions at this time were the same as those shown in FIGS.

【0125】上述した本発明の動作をシミュレーション
した結果図9Aに示す3次元形状が復元された。
As a result of simulating the above-described operation of the present invention, the three-dimensional shape shown in FIG. 9A was restored.

【0126】これに対して、Marr−Poggioモデルを用い
て3次元形状復元のシミュレーションを行うと、図9B
に示すものが得られた。なお、このものにおいてもN=
128とし、全てのニューロン素子の初期状態は 0.0とし
た。
On the other hand, when the three-dimensional shape restoration simulation is performed using the Marr-Poggio model, FIG. 9B is obtained.
What was shown in was obtained. In this case, N =
128 and the initial state of all neuron elements was 0.0.

【0127】図7Aと図7Bとを比較すると、本発明に
よれば、平面で構成される物体に関しても、従来より良
好に対象物体の3次元形状を復元できることが確認され
た。
Comparing FIG. 7A and FIG. 7B, it was confirmed that according to the present invention, the three-dimensional shape of the target object can be restored better than before even with respect to an object constituted by a plane.

【0128】[0128]

【発明の効果】以上の説明から明らかなように、本発明
によれば、復元しようとする対象物体の表面が平面で構
成されていても、あるいは奥行き方向に連続的に変化す
る曲面を有していても、物体形状によらず視差画像から
3次元形状を良好に復元することが可能である。
As is apparent from the above description, according to the present invention, even if the surface of the target object to be restored is composed of a flat surface or has a curved surface that continuously changes in the depth direction. However, it is possible to satisfactorily restore the three-dimensional shape from the parallax image regardless of the object shape.

【0129】しかも、3次元形状を復元するに際して、
平滑化処理等の後処理は行う必要がないので、構成が複
雑になることはないものである。
Moreover, when restoring the three-dimensional shape,
Since it is not necessary to perform post-processing such as smoothing processing, the structure does not become complicated.

【0130】更に、状態更新はブロック・シーケンシャ
ルに行われるので、処理を高速に、且つ効率よく行うこ
とが可能である。
Furthermore, since the status update is performed block-sequentially, the processing can be performed at high speed and efficiently.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明に係るニューラルネットワークの一実
施例の構成を示す図である。
FIG. 1 is a diagram showing a configuration of an embodiment of a neural network according to the present invention.

【図2】 図1に示すニューロン素子部11の各ブロッ
クの構成例を示す図である。
FIG. 2 is a diagram showing a configuration example of each block of a neuron element section 11 shown in FIG.

【図3】 パラメータp,qを説明するための図であ
る。
FIG. 3 is a diagram for explaining parameters p and q.

【図4】 本発明におけるニューロン素子の結合関係を
示す図である。
FIG. 4 is a diagram showing a connection relationship between neuron elements according to the present invention.

【図5】 パラメータp,qの変化の態様の例を示す図
である。
FIG. 5 is a diagram showing an example of how the parameters p and q change.

【図6】 本発明による3次元形状復元と従来の3次元
形状復元の比較を示す第1のシミュレーション例を示す
図である。
FIG. 6 is a diagram showing a first simulation example showing a comparison between three-dimensional shape restoration according to the present invention and conventional three-dimensional shape restoration.

【図7】 本発明による3次元形状復元と従来の3次元
形状復元の比較を示す第1のシミュレーション例を示す
図である。
FIG. 7 is a diagram showing a first simulation example showing a comparison between three-dimensional shape restoration according to the present invention and conventional three-dimensional shape restoration.

【図8】 本発明による3次元形状復元と従来の3次元
形状復元の比較を示す第2のシミュレーション例を示す
図である。
FIG. 8 is a diagram showing a second simulation example showing a comparison between the three-dimensional shape restoration according to the present invention and the conventional three-dimensional shape restoration.

【図9】 本発明による3次元形状復元と従来の3次元
形状復元の比較を示す第2のシミュレーション例を示す
図である。
FIG. 9 is a diagram showing a second simulation example showing a comparison between the three-dimensional shape restoration according to the present invention and the conventional three-dimensional shape restoration.

【図10】 ニューラルネットワークを用いて二つの視
差画像から物体の3次元形状を復元するための装置の概
略の構成を示す図である。
FIG. 10 is a diagram showing a schematic configuration of an apparatus for reconstructing a three-dimensional shape of an object from two parallax images by using a neural network.

【図11】 視差画像のニューラルネットワークへの入
力を説明するための図である。
[Fig. 11] Fig. 11 is a diagram for describing input of a parallax image to a neural network.

【図12】 視差画像のニューラルネットワークへの入
力を説明するための図である。
[Fig. 12] Fig. 12 is a diagram for describing input of a parallax image to a neural network.

【図13】 3次元形状の復元を説明するための図であ
る。
FIG. 13 is a diagram for explaining restoration of a three-dimensional shape.

【符号の説明】[Explanation of symbols]

1…ニューラルネットワーク、2…画像入力部、3…対
象物体、4、6…レンズ、5、7…受光部、11…ニュ
ーロン素子部、12…演算評価部、13…パラメータ設
定部、21…総入力演算部、22、23…演算部。
DESCRIPTION OF SYMBOLS 1 ... Neural network, 2 ... Image input part, 3 ... Target object, 4, 6 ... Lens, 5, 7 ... Light receiving part, 11 ... Neuron element part, 12 ... Computation evaluation part, 13 ... Parameter setting part, 21 ... Total Input arithmetic unit, 22, 23 ... Arithmetic unit.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】ニューロン素子が3次元的に配置され、各
ニューロン素子はその近傍のニューロン素子と所定のシ
ナプス結合を有する相互結合型ニューラルネットワーク
であって、 ニューロン素子はm個のブロックに分割されてなり、 第lブロック内(但し、l =1,2,…,m)のニューロン素
子の出力状態ベクトルx(l) が結合荷重行列Wklを介し
て第kブロック(但し、k=1,2,…,m)に流入すると共
に、第kブロックには更に二つの視差画像の特徴量の類
似度が入力バイアスベクトルθ(k) として加わって
(1)式で表される第kブロックへの総入力ベクトルu
(k) が得られ、 【数1】 前記総入力ベクトルu(k) に外部からの入力の影響を制
御するパラメータαを乗じた値と、前記第kブロック内
の素子の出力状態ベクトルx(k) に状態更新前の出力値
の影響を制御するパラメータγを乗じた値とを加算して
得られるベクトルの成分毎に、p,qをパラメータとし
て 【数2】 で表される飽和型線形伝達関数を作用させて得られるベ
クトルを次の時刻での第kブロックの出力状態ベクトル
(k) として、 【数3】 で表される式によって一斉に状態を更新し、この状態更
新をブロック毎に順次行い、且つこの状態更新を行う過
程において、 前記飽和型線形伝達関数のパラメータpは状態更新の度
毎に 0に近付くように変化され、パラメータqは、シナ
プス結合行列Wの対角ブロック行列Wkkの最小固有値を
min{λk}とするとき、−α×min{λk}/2 以上の範
囲で一定値または所望の態様で変化され、pとqの和が
γとなされることを特徴とするニューラルネットワー
ク。
1. A mutual connection type neural network in which neuron elements are three-dimensionally arranged, each neuron element having a predetermined synaptic connection with a neighboring neuron element, and the neuron element is divided into m blocks. The output state vector x (l) of the neuron element in the l-th block (where l = 1, 2, ..., M ) is passed through the coupling weight matrix W kl to the k-th block (where k = 1, 2, ..., m), and the similarity of the feature amounts of the two parallax images is further added to the kth block as the input bias vector θ (k) to the kth block represented by the equation (1). The total input vector u of
(k) is obtained, and A value obtained by multiplying the total input vector u (k) by a parameter α that controls the influence of an external input, and an influence of the output state vector x (k) of the element in the k-th block before the state update. For each component of the vector obtained by adding the value obtained by multiplying the parameter γ for controlling A vector obtained by operating the saturated linear transfer function represented by is defined as the output state vector x (k) of the k-th block at the next time, In the process of updating the states all at once by the formula represented by, performing the state update sequentially for each block, and performing the state update, the parameter p of the saturated linear transfer function is set to 0 every time the state is updated. The parameter q is changed so as to approach the minimum eigenvalue of the diagonal block matrix W kk of the synapse coupling matrix W.
When min {λ k }, the neural network is characterized in that it is changed in a constant value or in a desired manner in a range of −α × min {λ k } / 2 or more, and the sum of p and q is γ. .
【請求項2】視差が一定の方向に配置されているニュー
ロン素子間及び奥行き方向に配置されているニューロン
素子間に興奮性のシナプス結合があることを特徴とする
請求項1記載のニューラルネットワーク。
2. The neural network according to claim 1, wherein excitatory synaptic connections are present between neuron elements arranged in a parallax constant direction and between neuron elements arranged in the depth direction.
JP5309477A 1993-12-09 1993-12-09 Neural network Withdrawn JPH07160664A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5309477A JPH07160664A (en) 1993-12-09 1993-12-09 Neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5309477A JPH07160664A (en) 1993-12-09 1993-12-09 Neural network

Publications (1)

Publication Number Publication Date
JPH07160664A true JPH07160664A (en) 1995-06-23

Family

ID=17993459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5309477A Withdrawn JPH07160664A (en) 1993-12-09 1993-12-09 Neural network

Country Status (1)

Country Link
JP (1) JPH07160664A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230253A (en) * 2017-05-08 2018-06-29 北京市商汤科技开发有限公司 Image recovery method, device, electronic equipment and computer storage media

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230253A (en) * 2017-05-08 2018-06-29 北京市商汤科技开发有限公司 Image recovery method, device, electronic equipment and computer storage media
CN108230253B (en) * 2017-05-08 2020-11-27 北京市商汤科技开发有限公司 Image restoration method and device, electronic equipment and computer storage medium

Similar Documents

Publication Publication Date Title
Abe Neural networks and fuzzy systems: theory and applications
CN106796668A (en) For the method and system that bit-depth in artificial neural network is reduced
CN109005398B (en) Stereo image parallax matching method based on convolutional neural network
DE112016004534T5 (en) Unmonitored matching in fine-grained records for single-view object reconstruction
Graupe Principles of artificial neural networks: basic designs to deep learning
JP7289013B2 (en) Occlusion Recognition Indoor Scene Analysis
Laskowski A novel hybrid-maximum neural network in stereo-matching process
Hao et al. Synthesis of fast and collision-free folding of polyhedral nets
CN106408649A (en) Rule-based body structure evolution design method
Rahebi et al. Biomedical image edge detection using an ant colony optimization based on artificial neural networks
Bi et al. Avoiding the local minima problem in backpropagation algorithm with modified error function
JPH07160664A (en) Neural network
Phoha et al. Image recovery and segmentation using competitive learning in a layered network
Jaiswal et al. Using TRPO to control quadruped gait behaviors
US11636346B2 (en) Recurrent neural circuits
EP3561701A1 (en) Method and device for determining a physical form, method for producing a calculation device, and use of the calculation device
Solgi et al. WWN-8: incremental online stereo with shape-from-X using life-long big data from multiple modalities
Roy et al. Interpretability of an Interaction Network for identifying $ H\rightarrow b\bar {b} $ jets
Murata et al. Walking Motion Model based on Quaternion-valued Recurrent Neural Network for Powered Exoskeleton
US20220343162A1 (en) Method for structure learning and model compression for deep neural network
JPH09204524A (en) Three-dimensional shape recognizer
Jelonek et al. Biologically-inspired visual-motor coordination model in a navigation problem
Phoha Image recovery and segmentation using competitive learning in a computational network
Rehder Probabilistic Goal-Directed Pedestrian Prediction by Means of Artificial Neural Networks
Georgieva Generalized Net Model of the Deep Convolutional Neural Network

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010306