JP2015095042A - Image recognition device, image recognition method, and program - Google Patents

Image recognition device, image recognition method, and program Download PDF

Info

Publication number
JP2015095042A
JP2015095042A JP2013233401A JP2013233401A JP2015095042A JP 2015095042 A JP2015095042 A JP 2015095042A JP 2013233401 A JP2013233401 A JP 2013233401A JP 2013233401 A JP2013233401 A JP 2013233401A JP 2015095042 A JP2015095042 A JP 2015095042A
Authority
JP
Japan
Prior art keywords
pattern
state
image recognition
unit
update
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013233401A
Other languages
Japanese (ja)
Inventor
合原 一幸
Kazuyuki Aihara
一幸 合原
貴樹 牧野
Takaki MAKINO
貴樹 牧野
牧人 奥
Makito Oku
牧人 奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2013233401A priority Critical patent/JP2015095042A/en
Publication of JP2015095042A publication Critical patent/JP2015095042A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image recognition device, an image recognition method, and a program which are capable of extracting a corresponding pattern without using a mask pattern when a masked pattern is preserved.SOLUTION: The present invention, in an associative memory model in which a coupled pattern composed of a pattern-to-be-masked that is an exclusive-OR or exclusive-NOR of an original pattern of a plurality of images and a mask pattern and the mask pattern correlated thereto is learned by a neural network comprising neuron units, introduces a collation pattern that is a clue image into the associative memory model, and, by repeating a state update while decoding a state and obtaining a reconstitution pattern, compares the reconstitution pattern decoded as a result of the state update and the collation pattern when obtaining a reconstitution pattern that is the result of recollection, and imposes restriction on a neuron unit corresponding to a portion of the pattern in which values match between the reconstitution pattern and the collation pattern so that the same value as in the previous state before the update may be assumed at the time of state updating.

Description

本発明は、画像認識装置、画像認識方法、および、プログラムに関する。   The present invention relates to an image recognition apparatus, an image recognition method, and a program.

従来、ニューラルネットワークにおける連想記憶モデルとして、自己連想記憶モデルや系列連想記憶モデル等が開発されている。   Conventionally, self-associative memory models, sequence associative memory models, and the like have been developed as associative memory models in neural networks.

例えば、特許文献1では、記憶層で、自己増殖型ニューラルネットワークを用いて、入力ベクトルのパターンに対応するノードを接続したサブネットワークを構成して、入力ベクトルのサブクラスとして学習し、連想層で、記憶層にて保持された連想のキーとなるキーベクトルのキークラスと、そのキーベクトルから想起される連想クラスとの間に関連を張り、入力されたキーベクトルから、そのキークラス又は連想クラスに対応するノードの重みを想起結果として出力することが開示されている。   For example, in Patent Document 1, a self-propagating neural network is used in the storage layer to form a subnetwork in which nodes corresponding to the pattern of the input vector are connected, and learning is performed as a subclass of the input vector. An association is established between the key class of the key vector that is the key of the association held in the storage layer and the association class that is recalled from the key vector, and the input key vector is changed to the key class or association class. It is disclosed that the weight of a corresponding node is output as a recall result.

また、非特許文献1には、カラー画像を二値データに変換し、あるビットを反転させてリバーシブル符号を生成し、ニューラルネットワークに記憶させることにより、復号化した際に、あるビット表現と反転表現が同じ整数値となるよう調整することが開示されている。   In Non-Patent Document 1, a color image is converted into binary data, a bit is inverted, a reversible code is generated, and stored in a neural network, so that it is inverted with a bit expression when decoded. It is disclosed to adjust the representation to be the same integer value.

特開2011−86132号公報JP 2011-86132 A

Oku, Makito, Aihara, Kazuyuki, “Associative dynamics of color images in a large−scale chaotic neural network”, Nonlinear Theory and Its Applications, IEICE, Volume 2, Issue 4, pp. 508−521 (2011).“Oku, Makito, Aihara, Kazuyuki,“ Associative dynamics of color images in a large-scale I l e and p e n e i n e i n e t e n e i n e i n e i n e i t e n e i t e n e i t e n e i ” 508-521 (2011).

しかしながら、従来の連想記憶モデルにおいて、記銘段階で、マスクパターンでマスク化された画像パターンが記憶されている場合に、想起段階で、記銘に用いたマスクパターンを用いずに、手がかりとなる照合パターンのみから想起パターンを得ることができない、という問題点を有していた。   However, in the conventional associative memory model, when an image pattern masked with a mask pattern is stored at the memorizing stage, it becomes a clue without using the mask pattern used for memorizing at the recall stage. There is a problem that the recall pattern cannot be obtained only from the matching pattern.

本発明は、上記問題点に鑑みてなされたもので、マスク化されたパターンが保存された連想記憶モデルのニューラルネットワークにおいて、マスクパターンを用いずに、対応するパターンを取り出すことができる、画像認識装置、画像認識方法、および、プログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and in an associative memory model neural network in which a masked pattern is stored, a corresponding pattern can be extracted without using a mask pattern. It is an object to provide an apparatus, an image recognition method, and a program.

このような目的を達成するため、本発明の画像認識装置は、少なくとも記憶部と制御部を備えた画像認識装置であって、上記記憶部は、複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを、神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルに関する情報を記憶し、上記制御部は、指定された、手がかり画像である照合パターンを上記連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める想起手段と、上記想起手段により上記状態更新に伴って復号化された上記再構成パターンと、上記照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手段と、を備えたことを特徴とする。   In order to achieve such an object, an image recognition device of the present invention is an image recognition device including at least a storage unit and a control unit, and the storage unit excludes a plurality of original patterns and mask patterns. Information relating to an associative memory model in which a neural network composed of neural cell units learns a connected pattern in which the mask pattern is associated with a masked pattern that is a logical OR or a negative exclusive OR, and the control unit A recollection means for obtaining a reconstructed pattern of a recollection result by introducing a specified collation pattern, which is a clue image, into the associative memory model, decoding a state and obtaining a reconstructed pattern and repeating state update; The reconstructed pattern decrypted with the state update by the recall means is compared with the collation pattern, For the above-mentioned neuronal cell unit corresponding to the portion where the value matches between the configuration pattern and the matching pattern, it is constrained to easily take the same value as the state before the update when the state is updated, while the value matches. The nerve cell unit corresponding to the portion not to be processed is characterized by comprising comparison means for constraining the state update so as to easily take a value different from the state before the update.

また、本発明の画像認識装置は、上記記載の画像認識装置において、上記想起手段は、焼き鈍し法により、上記状態更新に伴って温度を徐々に下げることにより上記ニューラルネットワークの状態を収束させて、エネルギー関数の値がローカルミニマムに陥らないように制御すること、を特徴とする。   Further, the image recognition device of the present invention is the image recognition device described above, wherein the recall means converges the state of the neural network by gradually lowering the temperature with the state update by annealing. It is characterized by controlling so that the value of the energy function does not fall into a local minimum.

また、本発明の画像認識装置は、上記記載の画像認識装置において、上記想起手段は、1回の上記状態更新ごとに、逆温度に増加率を乗ずることにより、指数関数的に温度を下げること、を特徴とする。   The image recognition apparatus according to the present invention is the image recognition apparatus described above, wherein the recalling means exponentially lowers the temperature by multiplying the inverse temperature by an increase rate for each state update. It is characterized by.

また、本発明の画像認識装置は、上記記載の画像認識装置において、上記比較手段は、上記制約を加えるために、上記再構成パターンと上記照合パターン間の値の積の総和に応じて、上記ニューラルネットワークのエネルギー関数の値が小さくなる制約項を設定すること、を特徴とする。   Further, the image recognition apparatus according to the present invention is the image recognition apparatus described above, wherein the comparison unit adds the restriction according to a sum of products of values between the reconstruction pattern and the collation pattern. It is characterized by setting a constraint term that reduces the value of the energy function of the neural network.

また、本発明の画像認識装置は、上記記載の画像認識装置において、上記神経細胞ユニットの内部ポテンシャルは、上記制約項付きのエネルギー関数を当該神経細胞ユニットの状態で偏微分して符号を反転させたものであり、上記神経細胞ユニットの状態更新確率は、上記内部ポテンシャルと上記逆温度の積の符号を反転させたものを基数とした指数に1を加えたものを分母とし、1を分子とする分数で表され、上記想起手段は、1回の上記状態更新ごとに、上記状態更新確率を再計算すること、を特徴とする。   The image recognition device according to the present invention is the image recognition device described above, wherein the internal potential of the nerve cell unit is obtained by inverting the sign by partially differentiating the energy function with the constraint term in the state of the nerve cell unit. The state update probability of the neuronal unit is the index obtained by adding 1 to the base obtained by inverting the sign of the product of the internal potential and the inverse temperature, and 1 is the numerator. The recall means recalculates the state update probability every time the state is updated.

また、本発明の画像認識装置は、上記記載の画像認識装置において、上記想起手段は、初期状態で上記ニューラルネットワークをランダムな値に設定し、同期的かつ確率的な更新則に従って、上記ニューラルネットワークの状態を更新すること、を特徴とする。   The image recognition apparatus according to the present invention is the image recognition apparatus described above, wherein the recall means sets the neural network to a random value in an initial state, and follows the neural network according to a synchronous and probabilistic update rule. Updating the state of.

また、本発明の画像認識装置は、上記記載の画像認識装置において、上記マスクパターンは、ランダムな二値パターンであること、を特徴とする。   The image recognition apparatus of the present invention is characterized in that, in the image recognition apparatus described above, the mask pattern is a random binary pattern.

また、本発明の画像認識装置は、上記記載の画像認識装置において、上記被マスクパターンは、上記複数の画像のうち上記元パターン中の任意の数のビットごとに共通した上記マスクパターンにより作成されたパターンであること、を特徴とする。   In the image recognition device according to the present invention, in the image recognition device described above, the mask pattern is generated by the mask pattern common to any number of bits in the original pattern among the plurality of images. It is characterized by being a pattern.

また、本発明は画像認識方法に関するものであり、本発明の画像認識方法は、少なくとも記憶部と制御部を備えたコンピュータにおいて実行される画像認識方法であって、上記記憶部は、複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを、神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルに関する情報を記憶しており、上記制御部において実行される、指定された、手がかり画像である照合パターンを上記連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める想起手順と、上記想起手段により上記状態更新に伴って復号化された上記再構成パターンと、上記照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手順と、を含むことを特徴とする。   The present invention also relates to an image recognition method. The image recognition method of the present invention is an image recognition method executed in a computer including at least a storage unit and a control unit, and the storage unit includes a plurality of images. An associative memory model in which a neural network composed of neural cell units learns a connected pattern in which a mask pattern is associated with a masked pattern that is an exclusive OR or a negative exclusive OR of an original pattern and a mask pattern Information is stored, and a matching pattern that is a designated clue image that is executed by the control unit is introduced into the associative memory model, and state update is repeated while obtaining a reconstruction pattern by decoding the state. With the recall procedure for obtaining the reconstructed pattern of recall results and the state update by the recall means. The decoded reconstructed pattern is compared with the collation pattern, and the neural cell unit corresponding to the part where the value matches between the reconstructed pattern and the collation pattern is updated when the state is updated. Constraining the same value as the previous state to be easy, while restricting the neuron unit corresponding to the portion where the value does not match to easily take a value different from the state before the update when the state is updated. And a comparison procedure to be added.

また、本発明はプログラムに関するものであり、本発明のプログラムは、少なくとも記憶部と制御部を備えたコンピュータに実行させるためのプログラムであって、上記記憶部は、複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを、神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルに関する情報を記憶しており、上記制御部において実行される、指定された、手がかり画像である照合パターンを上記連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める想起手順と、上記想起手段により上記状態更新に伴って復号化された上記再構成パターンと、上記照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手順と、を実行させることを特徴とする。   The present invention also relates to a program. The program of the present invention is a program for causing a computer including at least a storage unit and a control unit to execute the program. The storage unit includes a plurality of image original patterns and masks. Storing information on an associative memory model in which a neural network composed of nerve cell units learns a connected pattern in which the mask pattern is associated with a masked pattern that is exclusive OR or negative exclusive OR with a pattern; Then, by introducing the collation pattern, which is the designated cue image, executed in the control unit into the associative memory model, and decoding the state to obtain the reconstructed pattern and repeating the state update, the recall result Recall procedure for reconstructing pattern and decoding with the above state update by the above recall means The reconstructed pattern is compared with the collation pattern, and the neural cell unit corresponding to the portion where the value is identical between the reconstructed pattern and the collation pattern is not updated at the time of the state update. A comparison that restricts the same value as the state to be easily obtained, and restricts the nerve cell unit corresponding to the portion where the value does not match to restrict a value that is different from the state before the update when the state is updated. And a procedure is executed.

また、本発明は記録媒体に関するものであり、上記記載のプログラムを記録したことを特徴とする。   The present invention also relates to a recording medium, wherein the program described above is recorded.

この発明によれば、複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルにおいて、手がかり画像である照合パターンを連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める際に、状態更新に伴って復号化された再構成パターンと照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と同じ値を取り易いように制約する。これにより、連想記憶モデルにおいて、マスク化されたパターンが保存されている場合に、マスクパターンを用いずに、対応するパターンを取り出すことができるという効果を奏する。   According to this invention, a neural network comprising a neuron unit as a connected pattern in which a mask pattern is associated with a mask pattern that is an exclusive OR or a negative exclusive OR of an original pattern and a mask pattern of a plurality of images. In the associative memory model learned in the above, when the reconstitution pattern of the recall result is obtained by introducing the collation pattern, which is a cue image, into the associative memory model and repeating the state update while decoding the state and obtaining the reconstructed pattern In addition, the reconstructed pattern decoded with the state update is compared with the collation pattern, and the state update is performed for the neuronal cell unit corresponding to the portion where the value matches between the reconstructed pattern and the collation pattern. Sometimes it is constrained so that the same value as that before the update can be easily obtained. Thereby, in the associative memory model, when a masked pattern is stored, the corresponding pattern can be extracted without using the mask pattern.

また、本発明は、想起段階において、焼き鈍し法により、状態更新に伴って温度を徐々に下げることによりニューラルネットワークの状態を収束させるので、エネルギー関数の値がローカルミニマムに陥らないように制御することができるという効果を奏する。   In the present invention, the state of the neural network is converged by gradually lowering the temperature with the state update by the annealing method in the recall stage, so that the energy function value is controlled not to fall into the local minimum. There is an effect that can be.

また、本発明は、1回の上記状態更新ごとに、逆温度に増加率を乗ずることにより、指数関数的に温度を下げるので、焼き鈍し法において、最初のうちは、神経細胞ユニットに状態の変化をほどこしながら、徐々に温度を下げて収束させることができるという効果を奏する。   In addition, since the present invention exponentially lowers the temperature by multiplying the inverse temperature by the rate of increase every time the state is updated once, in the annealing method, the state of the nerve cell unit is initially changed. As a result, the temperature can be gradually lowered and converged.

また、本発明は、制約を加えるために、再構成パターンと照合パターン間の値の積の総和に応じて、ニューラルネットワークのエネルギー関数の値が小さくなる制約項を設定する。これにより、本発明は、再構成パターンと照合パターン間で値が一致するほどエネルギー関数が下がるようにバイアスをかけることができるという効果を奏する。   Further, according to the present invention, in order to add a constraint, a constraint term that reduces the value of the energy function of the neural network is set in accordance with the sum of products of values between the reconstruction pattern and the matching pattern. As a result, the present invention has an effect that a bias can be applied so that the energy function decreases as the values match between the reconstruction pattern and the matching pattern.

また、本発明では、神経細胞ユニットの内部ポテンシャルは、制約項付きのエネルギー関数を当該神経細胞ユニットの状態で偏微分して符号を反転させたものであり、神経細胞ユニットの状態更新確率は、内部ポテンシャルと逆温度の積の符号を反転させたものを基数とした指数に1を加えたものを分母とし、1を分子とする分数で表され、想起段階で、1回の上記状態更新ごとに、状態更新確率を再計算する。これにより、温度の高いうちや、再構成パターンと照合パターン間で値が一致していないうちは、神経細胞ユニットの状態の変化を施しつつ、温度の徐々に下がり、再構成パターンと照合パターン間で値が一致してくると、一定の状態に収束するように施すことができるという効果を奏する。   In the present invention, the internal potential of the nerve cell unit is obtained by partially differentiating the energy function with a constraint term in the state of the nerve cell unit and inverting the sign, and the state update probability of the nerve cell unit is: An index with the sign of the product of the internal potential and the inverse temperature inverted, plus 1 plus the denominator, and expressed as a fraction with 1 as the numerator. Then, the state update probability is recalculated. As a result, while the temperature is high or when the values between the reconstruction pattern and the matching pattern do not match, the state of the nerve cell unit is changed and the temperature gradually decreases. When the values coincide with each other, there is an effect that it can be applied so as to converge to a certain state.

また、本発明は、初期状態でニューラルネットワークをランダムな値に設定し、同期的かつ確率的な更新則に従って、ニューラルネットワークの状態を更新するので、好適に対応するパターンを想起させることができるという効果を奏する。   In addition, the present invention sets the neural network to a random value in the initial state, and updates the state of the neural network according to a synchronous and probabilistic update rule, so that the corresponding pattern can be suitably recalled. There is an effect.

また、本発明では、マスクパターンは、ランダムな二値パターンであるので、擬似的に直交化された記憶容量の大きいニューラルネットワークから、照合パターンに対応するパターンを見出すことができるという効果を奏する。   In the present invention, since the mask pattern is a random binary pattern, it is possible to find a pattern corresponding to the collation pattern from a pseudo-orthogonalized neural network having a large storage capacity.

また、本発明は、被マスクパターンは、複数の画像の元パターン中の任意の数のビットごとに共通したマスクパターンにより作成されたパターンであるので、マスクパターンが増えることによる連結パターンの延長が抑えられた記憶容量の大きいニューラルネットワークから、照合パターンに対応するパターンを見出すことができるという効果を奏する。   In the present invention, since the mask pattern is a pattern created by a mask pattern common to any number of bits in the original pattern of a plurality of images, the connection pattern can be extended by increasing the mask pattern. There is an effect that a pattern corresponding to the matching pattern can be found from the suppressed neural network having a large storage capacity.

図1は、連想記憶モデルの記銘段階を模式的に示した図である。FIG. 1 is a diagram schematically showing the memorizing stage of the associative memory model. 図2は、連想記憶モデルの想起段階を模式的に示す図である。FIG. 2 is a diagram schematically showing the recall stage of the associative memory model. 図3は、互いに相関が小さいパターンを記憶させる場合を模式的に示した図である。FIG. 3 is a diagram schematically showing a case where patterns having a small correlation with each other are stored. 図4は、互いに相関が大きいパターンを記憶させる場合を模式的に示した図である。FIG. 4 is a diagram schematically showing a case where patterns having a large correlation with each other are stored. 図5は、元パターンとマスクパターンと被マスクパターンと連結パターンの関係を示す図である。FIG. 5 is a diagram illustrating a relationship among the original pattern, the mask pattern, the mask pattern, and the connection pattern. 図6は、XNOR演算およびXOR演算の一例を示す図である。FIG. 6 is a diagram illustrating an example of the XNOR operation and the XOR operation. 図7は、連結パターンの一例を示す図である。FIG. 7 is a diagram illustrating an example of a connection pattern. 図8は、ブロック単位に異なるマスクパターンrを設定した連結パターンの一例を示す図である。Figure 8 is a diagram showing an example of connection pattern of the specified mask pattern r k different for each block. 図9は、本実施の形態が適用される本画像認識装置100の一例を示すブロック図である。FIG. 9 is a block diagram illustrating an example of the image recognition apparatus 100 to which the exemplary embodiment is applied. 図10は、本実施の形態における画像認識装置100の基本処理の一例を示すフローチャートである。FIG. 10 is a flowchart showing an example of basic processing of the image recognition apparatus 100 in the present embodiment. 図11は、本実施の形態における画像認識装置100の想起処理の一例を示すフローチャートである。FIG. 11 is a flowchart showing an example of the recall process of the image recognition apparatus 100 in the present embodiment. 図12は、本実施例によるマスク情報を用いずに画像想起を行った結果を示す図である。FIG. 12 is a diagram showing the results of image recall without using mask information according to this example.

以下に、本発明にかかる画像認識装置、画像認識方法、および、プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。例えば、本実施の形態に示す連想記憶モデルに限らず、様々な連想記憶モデルに本発明を適用してもよい。また、以下の実施の形態では、同期的かつ確率論的な更新が行われる例について説明することがあるが、これに限られず、非同期的更新でも決定論的更新であってもよい。また、本実施の形態において、ニューラルネットワークの結合が疎の場合を例にして説明することがあるが、これに限られず、結合が密なニューラルネットワーク(例えば、全ての神経細胞ユニットが互いに結合しているネットワーク)を用いてもよい。また、以下の実施の形態においては、マスクパターンは、ランダムな二値パターンを例に説明することがあるが、これに限られず、任意のマスクパターンについて本実施の形態を適用することができる。   Embodiments of an image recognition apparatus, an image recognition method, and a program according to the present invention will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments. For example, the present invention may be applied to various associative memory models as well as the associative memory model shown in the present embodiment. In the following embodiments, an example in which synchronous and probabilistic updating is performed may be described. However, the present invention is not limited to this, and asynchronous updating or deterministic updating may be performed. In this embodiment, the case where the neural network is loosely coupled may be described as an example. However, the present invention is not limited to this, and the neural network is tightly coupled (for example, all the neural cell units are coupled to each other). Network). In the following embodiments, a mask pattern may be described by taking a random binary pattern as an example. However, the present invention is not limited to this, and the present embodiment can be applied to any mask pattern.

[本実施の形態の背景]
以下、本発明の実施の形態の背景および概要について図1〜図8を参照して説明し、その後、本実施の形態の構成および処理等について詳細に説明する。
[Background of the present embodiment]
Hereinafter, the background and outline of the embodiment of the present invention will be described with reference to FIGS. 1 to 8, and then the configuration and processing of the present embodiment will be described in detail.

まず、本発明の実施の形態では、前提として、マスク化されたパターンが連想記憶モデルのニューラルネットワークに記憶されるので、まず、その背景について説明する。ここで、図1は、連想記憶モデルの記銘段階を模式的に示した図である。   First, in the embodiment of the present invention, as a premise, since the masked pattern is stored in the neural network of the associative memory model, the background will be described first. Here, FIG. 1 is a diagram schematically showing the memorizing stage of the associative memory model.

連想記憶モデルとは、神経回路網(ニューラルネットワーク)モデルの一種である。連想記憶モデルの一種である、ホップフィールド・ネットワークは、1982年にHopfieldによって提唱されたニューラルネットワークの一モデルである。一例として図1に示すように、神経細胞(ニューロン)ユニットが結合されたニューラルネットワークを構築しておき、神経細胞ユニット間で相互作用させる。神経細胞ユニット間の結合の強さは重み(結合係数)として表現され、学習により強度が増減する。   An associative memory model is a kind of neural network model. The Hopfield network, which is a type of associative memory model, is a model of a neural network proposed by Hopfield in 1982. As an example, as shown in FIG. 1, a neural network in which nerve cell (neuron) units are coupled is constructed and interacts between nerve cell units. The strength of connection between nerve cell units is expressed as a weight (connection coefficient), and the strength increases or decreases by learning.

図1では、ニューラルネットワークに、4つのパターンの二値画像を記憶させる記銘段階が模式的に示されている。自己連想記憶モデルの記銘段階では、複数の記憶パターンを記憶させて、想起段階では、その中から1つのパターンを想起させるものである。ネットワークにおける各神経細胞ユニットは、結合する他の神経細胞ユニットからの入力の総和によって、発火するか否かが決まる。自己連想記憶モデルにおける記憶パターンとは、神経細胞ユニットの活動状態(典型的には、発火状態と休止状態の二種類)の並び方のことである。ホップフィールドのモデルでは、記銘段階で、シナプス結合の重みを特定の学習則(Hebb則等)に従い定めることで、記憶パターンは、ニューラルネットワークに記憶される。また、想起段階で、ネットワークの状態を表すエネルギー関数が状態更新則に従って単調に減少し、極小値状態に至るまで繰り返し更新処理が実行される。図2は、連想記憶モデルの想起段階を模式的に示す図である。   FIG. 1 schematically shows an inscription stage for storing a binary image of four patterns in a neural network. In the memorization stage of the self-associative memory model, a plurality of memory patterns are stored, and in the recall stage, one pattern is recalled. Whether or not each neuron unit in the network is fired is determined by the sum of inputs from other neuron units to be connected. The memory pattern in the auto-associative memory model is a way of arranging the activity states of neuronal cell units (typically, two types of firing state and resting state). In the Hopfield model, the memory pattern is stored in the neural network by determining the weight of the synapse connection according to a specific learning rule (such as the Hebb rule) at the inscription stage. Further, at the recall stage, the energy function representing the network state monotonously decreases according to the state update rule, and the update process is repeatedly executed until a minimum value state is reached. FIG. 2 is a diagram schematically showing the recall stage of the associative memory model.

図2に示すように、自己連想記憶モデルの想起段階では、手がかりとなる照合パターンから、ニューラルネットワークに記憶された元のパターンを探索し、想起されたパターンを得る。より具体的には、記憶パターンを取り出す際には、まず、ニューラルネットワークに手がかりとなる初期パターンを与え、次に、ニューラルネットワークの状態を特定の規則に従い複数回更新することにより、所望の記憶パターンを得る。なお、手がかりパターンは、元のパターンそのものでなくともよく、求めたいパターンの一部を乱したものであってもよい。すなわち、自己連想記憶モデルでは、入力として与えた手がかりパターンと最も似ている記憶済みのパターンが得られる。   As shown in FIG. 2, in the recall stage of the self-associative memory model, the original pattern stored in the neural network is searched from the collation pattern serving as a clue to obtain the recalled pattern. More specifically, when retrieving a memory pattern, first, an initial pattern as a clue is given to the neural network, and then a desired memory pattern is updated by updating the state of the neural network a plurality of times according to a specific rule. Get. Note that the clue pattern does not have to be the original pattern itself, but may be a part of the pattern desired to be obtained. That is, in the self-associative memory model, a stored pattern that is most similar to the cue pattern given as an input is obtained.

ネットワークにおけるニューロンの数(神経細胞ユニット数)Nが増えるほど記憶できるパターン数は増えるが、パターン間の相関によって記憶できるパターンの数に限界がある。自己連想記憶モデルが覚えられるパターン数を記憶容量と呼ぶ。理論的な記憶容量の上限として、標準的な学習則や状態更新則を用いた場合には、ニューラルネットワークおよび記憶パターンの大きさNに対して、およそ0.14N程度であることが知られているが、実際には、記憶パターンの相関に大きく影響される。ここで、図3は、互いに相関が小さいパターンを記憶させる場合を、図4は、互いに相関が大きいパターンを記憶させる場合を模式的に示した図である。   The number of patterns that can be stored increases as the number of neurons (number of neuronal cell units) N in the network increases, but the number of patterns that can be stored is limited by the correlation between patterns. The number of patterns in which the self-associative memory model can be remembered is called memory capacity. It is known that when a standard learning rule or state update rule is used as the upper limit of the theoretical storage capacity, it is about 0.14 N with respect to the size N of the neural network and the storage pattern. However, in reality, it is greatly influenced by the correlation of the storage patterns. Here, FIG. 3 is a diagram schematically showing a case where patterns having a small correlation are stored, and FIG. 4 is a diagram schematically showing a case where patterns having a high correlation are stored.

図3に示すように、記憶パターンがランダムなパターンであって、互いに相関が小さい場合は、理論的な限界に近い0.14Nの記憶容量が得られる。しかしながら、図4に示すように、互いに似通ったパターンを記憶させる場合、記憶パターン間に相関が大きいために、互いに干渉して、一般に記憶容量は著しく低下してしまう。   As shown in FIG. 3, when the storage pattern is a random pattern and the correlation is small, a storage capacity of 0.14N close to the theoretical limit can be obtained. However, as shown in FIG. 4, when patterns similar to each other are stored, since the correlation between the storage patterns is large, they generally interfere with each other and the storage capacity generally decreases significantly.

従来、この記憶容量の低下の問題に対して、(1)擬似逆行列を用いたり逐次的に重みを調節したりすることによって学習則を改善する方法、(2)末尾にビットを足したりビットの一部を変更したりすることによってパターン自体に変更を加える方法等が提案されている。しかし、従来の手法はいずれも計算負荷が大きいため、神経回路網および記憶パターンの大きさNが大きい場合には適用することが困難であった。   Conventionally, (1) a method of improving a learning rule by using a pseudo inverse matrix or sequentially adjusting weights, and (2) adding a bit to the end or a bit against the problem of a decrease in storage capacity. A method of changing a pattern itself by changing a part of the pattern has been proposed. However, since all of the conventional methods have a large calculation load, it is difficult to apply when the size N of the neural network and the storage pattern is large.

そこで、本願の発明者らが鋭意検討を行ったことにより新手法を開発するに至った。一例として、本願で用いる記銘の新手法は、(1)記憶パターン(元パターン)に対してマスクパターンを用意し、(2)記憶パターンとマスクパターンのXNOR演算またはXOR演算により被マスクパターンを生成し、(3)マスクパターンと被マスクパターンを連結した連結パターンを神経回路網に記憶させることを基本的な要素としている。このようにマスクパターンを用いて乱雑化することにより、記憶させるパターンを擬似的に直交化して、相関による記憶容量の低下を抑えることができる。ここで、図5は、元パターンとマスクパターンと被マスクパターンと連結パターンの関係を示す図である。   Therefore, the inventors of the present application have developed a new method through intensive studies. As an example, the new method of memorization used in this application is (1) preparing a mask pattern for a memory pattern (original pattern), and (2) applying a mask pattern by XNOR or XOR operation of the memory pattern and the mask pattern. The basic element is to generate and (3) store a connected pattern obtained by connecting a mask pattern and a mask pattern in a neural network. In this way, by using the mask pattern for randomization, the pattern to be stored can be pseudo-orthogonalized, and the reduction in storage capacity due to correlation can be suppressed. Here, FIG. 5 is a diagram illustrating the relationship among the original pattern, the mask pattern, the mask pattern, and the connection pattern.

二値の信号列を乱雑化する目的でXOR演算あるいはXNOR演算を行う。図5に示すように、原理としては、元の信号列(元パターン)と、それをマスクするための(擬似)乱数列(ランダムマスク)を用意し、両者のXOR演算ないしXNOR演算を行うことで、乱雑な信号列(被マスクパターン)が得られる。これにより、記憶パターンが乱雑化して相関が小さくなり、パターン間の干渉を低減して、記憶容量の低下を防ぐことができる。   An XOR operation or XNOR operation is performed for the purpose of randomizing the binary signal sequence. As shown in FIG. 5, as a principle, an original signal sequence (original pattern) and a (pseudo) random number sequence (random mask) for masking it are prepared, and XOR operation or XNOR operation of both is performed. Thus, a messy signal sequence (masked pattern) is obtained. As a result, the storage pattern becomes confused and the correlation becomes small, interference between patterns can be reduced, and a reduction in storage capacity can be prevented.

より具体的には、本発明の実施の形態では、(1)ランダムな二値パターン(ランダムマスク)のマスクパターンを生成する。なお、二値の出現確率は均等に1/2であることに限らず、多少のバイアスを加えてもよい。   More specifically, in the embodiment of the present invention, (1) a random binary pattern (random mask) mask pattern is generated. Note that the binary appearance probability is not limited to ½ evenly, and a slight bias may be applied.

そして、本実施の形態は、(2)指定された複数の画像の元パターンとマスクパターンとの排他的論理和(XOR)または否定排他的論理和(XNOR)を求めることにより被マスクパターンを生成する。一例として、本実施の形態は、画像の一次元二値データを元パターンとして、同じまたは短い長さのランダムな二値データをマスクパターンとして、両データの対応する値同士の排他的論理和(XOR)または否定排他的論理和(XNOR)を求めることにより被マスクパターンを生成する。ここで、図6は、XNOR演算およびXOR演算の一例を示す図である。   In this embodiment, (2) a masked pattern is generated by obtaining an exclusive OR (XOR) or a negative exclusive OR (XNOR) of the original pattern of a plurality of designated images and the mask pattern. To do. As an example, the present embodiment uses an exclusive OR of values corresponding to both data using one-dimensional binary data of an image as an original pattern and random binary data of the same or short length as a mask pattern. XOR) or negative exclusive OR (XNOR) is obtained to generate a masked pattern. Here, FIG. 6 is a diagram illustrating an example of the XNOR operation and the XOR operation.

元パターン(Input1)とマスクパターン(Input2)が{0,1}の二値データを用いる場合、図6(a)に示すXNOR演算を行い、被マスクパターンの値(Output)を得る。なお、二値データは、いずれの2つの値であってもよく、一例として、元パターン(Original)とマスクパターン(Mask)が{1,−1}の二値データを用いる場合、図6(b)に示すXNOR演算を行い、被マスクパターンの値(Masked)を得てもよい。この場合のXNOR演算は、元パターンrとマスクパターンξを掛け合わせたものr×ξに相当する。 When binary data of {0, 1} is used for the original pattern (Input 1) and the mask pattern (Input 2), the XNOR operation shown in FIG. 6A is performed to obtain the mask pattern value (Output). The binary data may be any two values. For example, when binary data having an original pattern (Original) and a mask pattern (Mask) of {1, -1} is used, FIG. The XNOR operation shown in b) may be performed to obtain the masked pattern value (Masked). The XNOR calculation in this case corresponds to the product of the original pattern r i and the mask pattern ξ i multiplied by r i × ξ i .

一方のXOR演算では、元パターン(Input1)とマスクパターン(Input2)が{0,1}の二値データを用いる場合、図6(c)に示すXOR演算を行い、被マスクパターンの値(Output)を得る。この場合も、二値データは、いずれの2つの値であってもよく、一例として、元パターン(Original)とマスクパターン(Mask)が{1,−1}の二値データを用いる場合、図6(d)に示すXOR演算を行い、被マスクパターンの値(Masked)を得てもよい。この場合のXOR演算は、元パターンrとマスクパターンξを掛け合わせ符号を入れ替えたもの−r×ξに相当する。 In one XOR operation, when binary data whose original pattern (Input1) and mask pattern (Input2) are {0, 1} is used, the XOR operation shown in FIG. 6C is performed, and the value of the masked pattern (Output) ) Also in this case, the binary data may be any two values. As an example, when binary data having an original pattern (Original) and a mask pattern (Mask) of {1, -1} is used, The value of the masked pattern (Masked) may be obtained by performing the XOR operation shown in FIG. The XOR operation in this case corresponds to a value obtained by multiplying the original pattern r i and the mask pattern ξ i and exchanging the signs, −r i × ξ i .

つづいて、記銘段階では、本実施の形態は、(3)マスクパターンに対応付けた被マスクパターンを連結パターンとして、ニューラルネットワークを用いた連想記憶モデルにて学習させる。なお、連結パターン中のビットの並べ方は、いずれの順序であってもよい。また、連結パターンは、元パターンの情報を完全に保持している。なぜなら、マスクパターンと被マスクパターンのペアに対して再度、同じ論理演算(XNOR/XOR)を行うと、元のパターンが復元できるからである。ここで、図7は、連結パターンの一例を示す図である。   Subsequently, in the memorizing stage, the present embodiment (3) learns by using an associative memory model using a neural network with a mask pattern associated with the mask pattern as a connected pattern. The order of bits in the connection pattern may be any order. Moreover, the connection pattern completely holds the information of the original pattern. This is because the original pattern can be restored by performing the same logical operation (XNOR / XOR) on the mask pattern / masked pattern pair again. Here, FIG. 7 is a diagram illustrating an example of a connection pattern.

一例として図7に示すように、本実施の形態では、一つ一つの元パターンξに対して異なるマスクパターンrを用いてXOR/XNOR演算を行った被マスクパターンrξと、マスクパターンrを交互に並べて連結パターンとして記銘させてもよい(kはブロック番号)。この場合、元パターンの長さがNとすると、2Nの長さの連結パターンが生成されることとなる。そのため、必要なニューロン数(神経細胞ユニット数)は倍増する。 As shown in FIG. 7 as an example, in this embodiment, and the object to be mask pattern r k xi] k performing the XOR / XNOR operation using the mask pattern r k different for each one of the original pattern xi] k, may be allowed to memorization as connection pattern of the mask pattern r k alternately arranged (k is the block number). In this case, if the length of the original pattern is N, a connected pattern having a length of 2N is generated. Therefore, the number of necessary neurons (number of nerve cell units) doubles.

そこで、複数の元パターンをブロック単位で区切って、ブロック単位ごとに異なるマスクパターン(ランダムマスク等)を設定して、連結パターンの長さを抑えてもよい。すなわち、マスクパターンのビット数を元パターンよりも少なく用意し、同一の要素(マスク)を複数回のXNOR演算に続けて使用することで、連結パターンの長さを2Nより短くしてもよい。ここで、図8は、ブロック単位に異なるマスクパターンrを設定した連結パターンの一例を示す図である。図8に示すように、本実施の形態は、複数の画像の元パターンを、先頭からL−1個ずつのブロック単位(マスクパターンを入れて長さLのブロック)に区切り、ブロック毎に値が異なるマスクパターンを設定して、LN/(L−1)の長さの連結パターンを生成してもよい。図7の場合は、必要なニューロン数(神経細胞ユニット数)が2倍となるが、図8に示すようにブロック長をLとすることによりL/(L−1)倍に抑えられる。 Therefore, a plurality of original patterns may be divided in units of blocks, and different mask patterns (such as random masks) may be set for each block unit to reduce the length of the connection pattern. That is, the length of the connected pattern may be made shorter than 2N by preparing a smaller number of bits of the mask pattern than the original pattern and using the same element (mask) following a plurality of XNOR operations. Here, FIG. 8 is a diagram showing an example of connection pattern of the specified mask pattern r k different for each block. As shown in FIG. 8, in this embodiment, the original pattern of a plurality of images is divided into L-1 block units (blocks of length L including a mask pattern) from the top, and a value is obtained for each block. May be set to generate a connected pattern having a length of LN / (L-1). In the case of FIG. 7, the number of necessary neurons (number of neuronal cell units) is doubled, but by setting the block length to L as shown in FIG. 8, the number can be suppressed to L / (L-1) times.

[本実施の形態の概要]
本実施の形態では、一例として以上のようにマスク化された連結パターンが連想記憶モデルのニューラルネットワークに記憶されていることを前提として、そのニューラルネットワークから、マスクパターンを用いずに、対応するパターンを取り出すことを目的とする。記銘段階に続く想起段階では、通常、手がかりとなる入力パターンから、ニューラルネットワークに記憶された元のパターンを探索し、想起されたパターンを得るが、本実施の形態を適用した場合には、照合パターンに対応するマスクパターンが未知である。
[Outline of this embodiment]
In the present embodiment, as an example, assuming that the concatenated pattern masked as described above is stored in the neural network of the associative memory model, the corresponding pattern is used from the neural network without using the mask pattern. The purpose is to take out. In the recall stage following the memorization stage, the original pattern stored in the neural network is usually searched from the input pattern as a clue to obtain the recalled pattern.However, when this embodiment is applied, The mask pattern corresponding to the verification pattern is unknown.

そのため、本実施の形態は、手がかり画像である照合パターンを連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める。   Therefore, in the present embodiment, a reconstitution pattern of the recall result is obtained by introducing a collation pattern, which is a clue image, into the associative memory model, and repeating state updating while obtaining the reconstructed pattern by decoding the state.

その際、本実施の形態は、状態更新に伴って復号化された再構成パターンと照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と異なる値を取り易いように制約を加える。この制約により、最初のうちはランダムだった神経細胞ユニットの状態が、一致する部分に対応する神経細胞ユニットでは同じ状態に留まりやすいので、状態更新に従って徐々に未知のマスクパターンを反映した状態に近づいていくことになる。   In this case, the present embodiment compares the reconstructed pattern decoded along with the state update with the collation pattern, and the nerve corresponding to the portion where the value between the reconstructed pattern and the collation pattern matches. For cell units, it is constrained to easily take the same value as the state before update at the time of state update. On the other hand, for nerve cell units corresponding to portions where the values do not match, values different from the state before update at the time of state update Add restrictions to make it easier to take Due to this restriction, the state of the neuron unit that was initially random tends to stay in the same state in the neuron unit corresponding to the matching part, and gradually approaches the state reflecting the unknown mask pattern as the state is updated. It will follow.

すなわち、本実施の形態は、ランダムなニューラルネットワークの初期状態が、徐々にマスクパターンを反映した状態に最適化される。ただし、最適化が適切でなければ、真のマスクパターンを反映したグローバルミニマムには至らずに、ローカルミニマムに陥ってしまう場合がある。   In other words, in this embodiment, the initial state of the random neural network is optimized to a state in which the mask pattern is gradually reflected. However, if optimization is not appropriate, the global minimum reflecting the true mask pattern may not be reached, and the local minimum may be encountered.

ここで、本実施の形態は、最適化手法として、焼き鈍し法(シミュレーテッド・アニーリング法)を用いてもよい。より具体的には、本実施の形態は、焼き鈍し法により、状態更新に伴って温度を徐々に下げることにより、ニューラルネットワークの状態を収束させて、エネルギー関数の値がローカルミニマムに陥らないように制御してもよい。その際、以下の数式で示すように、1回の上記状態更新ごとに、逆温度に増加率を乗ずることにより、指数関数的に温度を下げてもよい。
β(t+1)=γβ(t)
(ここで、tは状態更新に伴う時刻、β(t)は時刻tにおける逆温度、γは増加率であり1より大きな値を取る。)
Here, the present embodiment may use an annealing method (simulated annealing method) as an optimization method. More specifically, the present embodiment uses an annealing method to gradually lower the temperature as the state is updated, thereby converging the state of the neural network so that the energy function value does not fall into the local minimum. You may control. At that time, as indicated by the following formula, the temperature may be decreased exponentially by multiplying the reverse temperature by the increasing rate for each state update.
β (t + 1) = γβ (t)
(Where t is the time associated with the state update, β (t) is the reverse temperature at time t, and γ is the rate of increase and takes a value greater than 1.)

また、本実施の形態は、上述した制約を加えるために、以下の数式で示すように、再構成パターンと照合パターン間の値の積の総和に応じて、ニューラルネットワークのエネルギー関数の値が小さくなる制約項を設定してもよい。
(ここで、エネルギー関数Eの第1項は、通常のエネルギー関数の項であり、第2項は、本実施の形態にて追加された制約項である。Jijは、j番目の神経細胞ユニットからi番目の神経細胞ユニットへのシナプス結合の強度を表し、x(t)は、時刻tにおけるi番目の神経細胞ユニットの状態である。また、sは、制約項の強度を表すパラメータであり、zは、手がかりとなる照合パターンの値、yは、再構成パターンの値である。)
Further, in this embodiment, in order to add the above-described constraints, the value of the energy function of the neural network is reduced according to the sum of products of values between the reconstructed pattern and the matching pattern, as shown in the following formula. A constraint term may be set.
(Here, the first term of the energy function E is a normal energy function term, and the second term is a constraint term added in the present embodiment. J ij is the j-th neuron. Represents the strength of the synaptic connection from the unit to the i-th neuron unit, and x i (t) is the state of the i-th neuron unit at time t, and s is a parameter representing the strength of the constraint term Z k is a value of a collation pattern serving as a clue, and y k is a value of a reconstruction pattern.)

また、本実施の形態は、神経細胞ユニットの内部ポテンシャルh(t)として、以下の数式に示すように、制約項付きのエネルギー関数Eを、当該神経細胞ユニットの状態xで偏微分して符号を反転させたものを設定してもよい。
In the present embodiment, as the internal potential h i (t) of a neuron unit, the energy function E with a constraint term is partially differentiated with the state x i of the neuron unit as shown in the following equation. It is possible to set a reversed sign.

また、本実施の形態は、神経細胞ユニットの状態更新確率Prob(x(t+1)=1)は、以下の数式に示すように、内部ポテンシャルh(t)と逆温度の積の符号を反転させたものを基数とした指数に1を加えたものを分母とし、1を分子とする分数であってもよい。
In the present embodiment, the state update probability Prob (x i (t + 1) = 1) of the neuron unit is expressed by the sign of the product of the internal potential h i (t) and the reverse temperature, as shown in the following equation. A fraction obtained by adding 1 to an index with the inverted number as the base and 1 as the numerator may be used.

一例として、本実施の形態は、上述した状態更新確率を、1回の状態更新ごとに再計算して、再計算した確率に従って神経細胞ユニットの状態を更新する。これにより、温度が高い初期の段階や、再構成パターンと照合パターン間で値が一致していない段階では、対応する神経細胞ユニットの状態の変化が施される結果となり、一方で、温度が徐々に下がってゆき、再構成パターンと照合パターン間で値が一致してくると、各神経細胞ユニットの状態は一定の状態に収束するように施される。   As an example, this embodiment recalculates the state update probability described above for each state update, and updates the state of the nerve cell unit according to the recalculated probability. As a result, in the initial stage where the temperature is high or the value between the reconstruction pattern and the matching pattern does not match, the state of the corresponding nerve cell unit is changed, while the temperature gradually increases. When the value decreases between the reconstructed pattern and the matching pattern, the state of each neuron unit is applied so as to converge to a certain state.

以上が本実施の形態の概要である。   The above is the outline of the present embodiment.

[画像認識装置の構成]
次に、本画像認識装置の構成について図9を参照して説明する。図9は、本実施の形態が適用される本画像認識装置100の一例を示すブロック図であり、該構成のうち本実施の形態に関係する部分のみを概念的に示している。
[Configuration of image recognition device]
Next, the configuration of the image recognition apparatus will be described with reference to FIG. FIG. 9 is a block diagram showing an example of the image recognition apparatus 100 to which the present embodiment is applied, and conceptually shows only the portion related to the present embodiment in the configuration.

図9に示すように、本実施の形態における画像認識装置100は、概略的に、制御部102と記憶部106を少なくとも備え、本実施の形態において、更に、入出力制御インターフェース部108と通信制御インターフェース部104を備える。ここで、制御部102は、画像認識装置100の全体を統括的に制御するCPU等である。また、通信制御インターフェース部104は、通信回線等に接続されるルータ等の通信装置(図示せず)に接続されるインターフェースであり、入出力制御インターフェース部108は、入力部112や出力部114に接続されるインターフェースである。また、記憶部106は、各種のデータベースやテーブルなどを格納する装置である。これら画像認識装置100の各部は任意の通信路を介して通信可能に接続されている。更に、この画像認識装置100は、ルータ等の通信装置および専用線等の有線または無線の通信回線を介して、ネットワーク300に通信可能に接続されている。   As shown in FIG. 9, the image recognition apparatus 100 according to the present embodiment schematically includes at least a control unit 102 and a storage unit 106. In the present embodiment, the image recognition apparatus 100 further controls communication with the input / output control interface unit 108. An interface unit 104 is provided. Here, the control unit 102 is a CPU or the like that comprehensively controls the entire image recognition apparatus 100. The communication control interface unit 104 is an interface connected to a communication device (not shown) such as a router connected to a communication line or the like, and the input / output control interface unit 108 is connected to the input unit 112 or the output unit 114. The interface to be connected. The storage unit 106 is a device that stores various databases and tables. Each unit of the image recognition apparatus 100 is connected to be communicable via an arbitrary communication path. Further, the image recognition apparatus 100 is communicably connected to the network 300 via a communication device such as a router and a wired or wireless communication line such as a dedicated line.

記憶部106に格納される各種のデータベースやテーブル(ニューロンファイル106b等)は、固定ディスク装置等のストレージ手段である。例えば、記憶部106は、各種処理に用いる各種のプログラム、テーブル、ファイル、データベース、および、ウェブページ等を格納する。   Various databases and tables (neuron file 106b and the like) stored in the storage unit 106 are storage means such as a fixed disk device. For example, the storage unit 106 stores various programs, tables, files, databases, web pages, and the like used for various processes.

これら記憶部106の各構成要素のうち、ニューロンファイル106bは、神経細胞ユニットを識別するインデックスに対応付けて、神経細胞ユニット間のパラメータや神経細胞ユニット毎のパラメータ(係数値等)などニューラルネットワークに関するデータを記憶する神経回路網記憶手段である。一例として、ニューロンファイル106bに記憶されるニューラルネットワークの情報は、神経細胞ユニットiと神経細胞ユニットjの間における重みJij、時刻t(t=1,2,3,...)における、神経回路網の状態x(t)、再構成パターンy(t)、エネルギー関数E(t)、神経細胞ユニットの内部ポテンシャルh(t)等の値である。なお、ニューロンファイル106bには、予めこれらパラメータのt=0の場合で数値が与えられていない場合、初期パラメータが記憶されてもよい。後述する学習部102cおよび想起部102dにより状態更新(t→t+1)が行われる毎に、上述の値が更新されてもよい。 Among these components of the storage unit 106, the neuron file 106b relates to a neural network such as a parameter between nerve cell units and a parameter (coefficient value) for each nerve cell unit in association with an index for identifying the nerve cell unit. Neural network storage means for storing data. As an example, the neural network information stored in the neuron file 106b is the nerve at the weight J ij between the neuron unit i and the neuron unit j at time t (t = 1, 2, 3,...). These are values such as the state x (t) of the network, the reconstruction pattern y (t), the energy function E (t), and the internal potential h (t) of the nerve cell unit. The neuron file 106b may store initial parameters when numerical values are not given in advance when these parameters t = 0. The above-mentioned value may be updated every time state update (t → t + 1) is performed by the learning unit 102c and the recall unit 102d described later.

また、入出力制御インターフェース部108は、入力部112や出力部114の制御を行う。ここで、出力部114としては、モニタ(家庭用テレビを含む)の他、スピーカを用いることができる(なお、以下においては出力部114をモニタとして記載する場合がある)。また、入力部112としては、キーボード、マウス、およびマイク等を用いることができる。   The input / output control interface unit 108 controls the input unit 112 and the output unit 114. Here, as the output unit 114, in addition to a monitor (including a home television), a speaker can be used (hereinafter, the output unit 114 may be described as a monitor). As the input unit 112, a keyboard, a mouse, a microphone, and the like can be used.

また、図9において、制御部102は、OS(Operating System)等の制御プログラムや、各種の処理手順等を規定したプログラム、および、所要データを格納するための内部メモリを有する。そして、制御部102は、これらのプログラム等により、種々の処理を実行するための情報処理を行う。制御部102は、機能概念的に、マスク生成部102a、論理演算部102b、学習部102c、想起部102d、および、比較部102eを備える。   In FIG. 9, the control unit 102 has an internal memory for storing a control program such as an OS (Operating System), a program defining various processing procedures, and necessary data. And the control part 102 performs the information processing for performing various processes by these programs. The control unit 102 includes a mask generation unit 102a, a logical operation unit 102b, a learning unit 102c, a recall unit 102d, and a comparison unit 102e in terms of functional concept.

このうち、マスク生成部102aは、マスクパターンを生成するマスク生成手段である。本実施の形態において、マスク生成部102aは、ランダムな二値パターンであるマスクパターンを生成する。一例として、マスク生成部102aは、乱数表等を用いて、乱数列rμ(μ=1,2,・・・,P)を生成してもよい。なお、発生させる二値(例えば、1と−1)の出現確率Prob(r μ=±1)は、均等に1/2であることに限らず、多少のバイアス(バイアスパラメータa)を加えて(1±a)/2としてもよい。 Among these, the mask generation unit 102a is a mask generation unit that generates a mask pattern. In the present embodiment, the mask generation unit 102a generates a mask pattern that is a random binary pattern. As an example, the mask generation unit 102a may generate a random number sequence r μ (μ = 1, 2,..., P) using a random number table or the like. It should be noted that the appearance probability Prob (r i μ = ± 1) of the generated binary values (for example, 1 and −1) is not limited to ½, and a slight bias (bias parameter a) is added. (1 ± a) / 2.

また、論理演算部102bは、マスク生成部102aにより生成されたマスクパターン(ランダムマスク等)と、元パターンとの論理演算(XNOR/XOR)を行うことにより被マスクパターンを生成する論理演算手段である。例えば、論理演算部102bは、図6を用いて上述したようにXNOR演算またはXOR演算を行う。   The logical operation unit 102b is a logical operation unit that generates a masked pattern by performing a logical operation (XNOR / XOR) between the mask pattern (random mask or the like) generated by the mask generation unit 102a and the original pattern. is there. For example, the logical operation unit 102b performs an XNOR operation or an XOR operation as described above with reference to FIG.

ここで、論理演算部102bは、複数の画像の元パターン中の任意の数のビットごとにブロック化して、ブロック単位で共通したマスクパターン(ランダムマスク等)を設定して、被マスクパターンを作成してもよい。より具体的には、論理演算部102bは、複数の画像による長さNの元パターンを、先頭からL−1個ずつのブロック単位に区切り(ただし、NはL−1で割り切れるものとする。)、ブロック毎に値が異なるマスクパターンを設定して、LN/(L−1)の長さの連結パターンを生成してもよい。   Here, the logical operation unit 102b creates a mask pattern by setting a common mask pattern (random mask, etc.) in units of blocks by making a block for each arbitrary number of bits in the original pattern of a plurality of images. May be. More specifically, the logical operation unit 102b divides an original pattern of length N by a plurality of images into L-1 blocks from the beginning (where N is divisible by L-1). ), A mask pattern having a different value for each block may be set to generate a concatenated pattern having a length of LN / (L−1).

また、学習部102cは、ニューラルネットワークを用いた連想記憶モデルにて連結パターンを学習させる学習手段である。   The learning unit 102c is learning means for learning a connection pattern using an associative memory model using a neural network.

また、想起部102dは、ニューラルネットワークを用いた連想記憶モデルにて手がかりとなる照合パターンからパターンを再構成する想起手段である。より具体的には、想起部102は、手がかり画像である照合パターンを連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める。ここで、想起部102dは、比較部102eにより設定される各神経細胞ユニットの状態更新の制約を受けながらニューラルネットワークの状態更新を行う。   The recalling unit 102d is a recalling unit that reconstructs a pattern from a matching pattern that is a clue in an associative memory model using a neural network. More specifically, the recall unit 102 introduces a collation pattern, which is a clue image, into the associative memory model, and repeats state update while decoding the state and obtaining the reconstruction pattern, thereby obtaining the reconstruction pattern of the recall result. Ask. Here, the recalling unit 102d updates the state of the neural network while receiving restrictions on the state update of each nerve cell unit set by the comparison unit 102e.

ここで、想起部102dは、未知のマスクパターンを判定した状態に導くために、焼き鈍し法を用いてニューラルネットワークを収束させてもよい。例えば、想起部102dは、状態更新に伴って温度を徐々に下げることによりニューラルネットワークの状態を収束させて、エネルギー関数の値がローカルミニマムに陥らないように制御してもよい。ここで、想起部102dは、1回の上記状態更新ごとに、逆温度に増加率を乗ずることにより、指数関数的に温度を下げてもよい。なお、想起部102dは、対数関数的に温度を下げてもよい。例えば、想起部102dは、同期更新の代わりに非同期更新を行い、対数関数的に温度を下げることで、グローバルミニマムに導き易くしてもよい。   Here, the recalling unit 102d may converge the neural network using an annealing method in order to guide the unknown mask pattern to the determined state. For example, the recalling unit 102d may control the energy function value so as not to fall into a local minimum by converging the state of the neural network by gradually lowering the temperature as the state is updated. Here, the recalling unit 102d may lower the temperature exponentially by multiplying the inverse temperature by the increase rate for each state update. The recalling unit 102d may lower the temperature logarithmically. For example, the recalling unit 102d may perform asynchronous update instead of synchronous update, and lower the temperature logarithmically to facilitate the global minimum.

また、比較部102eは、想起部102dにより状態更新に伴って復号化された再構成パターンと照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手段である。   In addition, the comparison unit 102e compares the reconstructed pattern decoded by the recall unit 102d with the state update with the collation pattern, and corresponds to a portion where the value matches between the reconstructed pattern and the collation pattern. For the neuron unit to be updated, it is constrained to easily take the same value as the state before update at the time of state update, while for the neuron unit corresponding to the portion where the value does not match, the state before update at the time of state update This is a comparison means for adding a restriction so that different values can be easily obtained.

ここで、数式による説明を行う。記憶させる元のパターンを{ξμ ,ξμ ,...,ξμ }と表す。μはパターン番号で、1からPまでの整数値を取る。ξμ は、μ番目の元パターンのi番目の値を表し、本実施の形態では1か−1のいずれかの値を取る。これに対し、マスクパターンは、{rμ ,rμ ,...,rμ }と表す。本実施の形態において、rμ は、μ番目のマスクパターンのi番目の値を示し、ランダムに1か−1の値を取る。記憶パターンのある値ξμ と、それに対応するマスクパターンの値rμ との間で、XNOR演算をした結果はξμ μ となる(XOR演算の場合は−ξμ μ )。 Here, explanation will be given using mathematical formulas. The original pattern to be stored is {ξ μ 1 , ξ μ 2 ,. . . , Ξ μ N }. μ is a pattern number and takes an integer value from 1 to P. ξ μ i represents the i-th value of the μ-th original pattern, and takes a value of 1 or −1 in the present embodiment. On the other hand, the mask pattern is {r μ 1 , r μ 2 ,. . . , R μ N }. In this embodiment, r μ i indicates the i-th value of the μ-th mask pattern, and takes a value of 1 or −1 at random. The result of the XNOR operation between a value ξ μ i having a stored pattern and the value r μ i of the corresponding mask pattern is ξ μ i r μ i (in the case of XOR operation, −ξ μ i r μ i ).

ブロック長L=2の場合、マスクパターン{rμ ,rμ ,...,rμ }と被マスクパターン{ξμ μ ,ξμ μ ,...,ξμ μ }から1つずつ交互の取ってきて繋げたもの{rμ ,ξμ μ ,rμ ,ξμ μ ,...,rμ ,ξμ μ }が、学習部102cの制御によりニューラルネットワークに記憶させる長さ2Nの連結パターンである。ここで、記号を置き換えて、連結パターン{ημ ,ημ ,...,ημ N´}と表す。ただし、N´=2Nである。 When the block length L = 2, the mask pattern {r μ 1 , r μ 2 ,. . . , R μ N } and the masked pattern {ξ μ 1 r μ 1 , ξ μ 2 r μ 2 ,. . . , Xi] mu N one by one from r mu N} that connecting fetches the alternating {r μ 1, ξ μ 1 r μ 1, r μ 2, ξ μ 2 r μ 2,. . . , R μ N , ξ μ N r μ N } is a connection pattern of length 2N to be stored in the neural network under the control of the learning unit 102c. Here, the symbols are replaced, and the connected patterns {η μ 1 , η μ 2 ,. . . , Η μ N ′ }. However, N ′ = 2N.

ブロック長L=2以上の場合、μ番目の元パターンのk番目のブロックを{ξμ k,1,ξμ k,2,...,ξμ k,L−1}と表す。これに対応するマスクパターンの値をrμ とし、論理演算(XNOR/XOR)および連結操作を行うことで、長さLのブロック{rμ ,rμ ξμ k,1,rμ ξμ k,2,...,rμ ξμ k,L−1}を得る。これをブロック順に並べたものを連結パターンとしてもよい。この場合、N´=LN/(L−1)となる。なお、上記の連結パターンの並び順は一例であり、連結パターンにおいて被マスクパターンとマスクパターンの並び順は任意である。 When the block length L = 2 or more, the k-th block of the μ-th original pattern is represented by {ξ μ k, 1 , ξ μ k, 2 ,. . . , Ξ μ k, L−1 }. The value of the mask pattern corresponding to this is set to r μ k , and a logical operation (XNOR / XOR) and a concatenation operation are performed, so that a block of length L {r μ k , r μ k ξ μ k, 1 , r μ k ξ μ k, 2 ,. . . , R μ k ξ μ k, L−1 }. It is good also considering what arranged this in block order as a connection pattern. In this case, N ′ = LN / (L−1). Note that the arrangement order of the above connection patterns is an example, and the arrangement order of the mask pattern and the mask pattern in the connection pattern is arbitrary.

学習部102cによる連結パターンの学習には、一例として、標準的なヘブ学習則を用いてもよい。自己連想記憶モデルの場合、j番目の神経細胞ユニットからi番目の神経細胞ユニットへのシナプス結合の強度をJijと表し、i≠jの場合について、学習部102cは、以下の式に従い値を定める。なお、i=jの場合は、Jii=0とする。
For example, a standard Hebb learning rule may be used for learning the connection pattern by the learning unit 102c. In the case of the auto-associative memory model, the strength of the synapse connection from the j-th neuron unit to the i-th neuron unit is represented as J ij, and in the case of i ≠ j, the learning unit 102c calculates a value according to the following equation: Determine. If i = j, J ii = 0.

ニューラルネットワークの時刻tにおける状態を{x(t),x(t),...,xN´(t)}と表す。x(t)は、i番目の神経細胞ユニットの活動状態を表し、1(発火状態)か−1(休止状態)のいずれかの値を取る。ニューラルネットワークの状態更新には、同期更新と非同期更新、決定論的更新と確率的更新のそれぞれの組み合わせにより、4通りが考えられるが、いずれの組み合せを採用してもよい。 The state of the neural network at time t is expressed as {x 1 (t), x 2 (t),. . . , X N ′ (t)}. x i (t) represents the active state of the i-th neuron unit and takes a value of 1 (firing state) or −1 (resting state). There are four possible ways to update the state of the neural network, depending on the combination of synchronous update and asynchronous update, and deterministic update and probabilistic update. Any combination may be adopted.

本実施の形態において、想起部102dは、ニューラルネットワークの状態更新時に、比較部102eの処理により、ニューラルネットワークの状態を復号した再構成パターンと、手がかり画像である照合パターンとがなるべく一致するような制約項を加えつつ、焼き鈍し法により、ニューラルネットワークの状態を徐々に収束させて想起を行ってもよい。   In the present embodiment, the recollection unit 102d matches the reconstructed pattern obtained by decoding the state of the neural network with the collation pattern that is a clue image as much as possible by the processing of the comparison unit 102e when the state of the neural network is updated. Recalling may be performed by gradually converging the state of the neural network by an annealing method while adding constraint terms.

ここで、本実施の形態の制約項は、比較部102eによる再構成パターンと照合パターン間の比較結果を反映するものであり、値が一致している部分に関しては、対応する神経細胞ユニットに「次の更新時に、現在の状態と同じ値を取りやすい」ように制約を加え、値が一致していない部分に関しては、対応する神経細胞ユニットに「次の更新時に、現在の状態とは異なる値を取りやすい」ように制約を加える項である。この制約項により、再構成パターンと照合パターンとが一致しやすくなる。   Here, the constraint term of the present embodiment reflects the comparison result between the reconstructed pattern and the collation pattern by the comparison unit 102e. Restrictions are made so that it is easy to take the same value as the current state at the next update, and for the part where the values do not match, the corresponding nerve cell unit is set to a value different from the current state at the next update. This is a term that adds a constraint so that it is easy to take. This constraint term makes it easier for the reconstruction pattern and the matching pattern to match.

また、本実施の形態において、想起部102dは、一例として、以下の焼き鈍し法を用いてもよい。まず、想起部102dは、ニューラルネットワークの初期状態をランダムな値に設定し、逆温度パラメータβに初期値を定める。つづいて、想起部102dは、同期的−確率的更新則に従ってニューラルネットワークの状態を1ステップ分更新する。その後、想起部102dは、比較部102eによる比較結果を反映した制約項を再計算し、逆温度パラメータβを増加させて、再びニューラルネットワークの状態更新を行う。想起部102dは、以上の処理を所定のステップ数繰り返し、最後に得られた再構成パターンを出力部114等に出力してもよい。ここで、数式について整理すると以下のようになる。
・元パターン(長さN):{ξμ ,ξμ ,...,ξμ }(μ=1,2,...,P)
・マスクパターン(長さN):{rμ ,rμ ,...,rμ }(μ=1,2,...,P)
・被マスクパターン(長さN):{ξμ μ ,ξμ μ ,...,ξμ μ }(μ=1,2,...,P)
・連結パターン(長さ2N):{ημ ,ημ ,...,ημ 2N}(μ=1,2,...,P)
・照合パターン(長さN):{z,z,...,z
・ニューラルネットワークの状態:{x(t),x(t),...,x2N(t)}(t=0,1,2,...)
・再構成パターン(長さN):{y(t),y(t),...,y(t)}(t=0,1,2,...)
In the present embodiment, the recalling unit 102d may use the following annealing method as an example. First, the recall unit 102d sets the initial state of the neural network to a random value, and sets an initial value for the inverse temperature parameter β. Subsequently, the recalling unit 102d updates the state of the neural network by one step according to the synchronous-stochastic update rule. Thereafter, the recalling unit 102d recalculates the constraint term reflecting the comparison result by the comparing unit 102e, increases the inverse temperature parameter β, and updates the state of the neural network again. The recall unit 102d may repeat the above process for a predetermined number of steps, and output the last obtained reconstruction pattern to the output unit 114 or the like. Here, the formulas are organized as follows.
Original pattern (length N): {ξ μ 1 , ξ μ 2 ,. . . , Ξ μ N } (μ = 1, 2,..., P)
Mask pattern (length N): {r μ 1 , r μ 2 ,. . . , R μ N } (μ = 1, 2,..., P)
Mask pattern (length N): {ξ μ 1 r μ 1 , ξ μ 2 r μ 2 ,. . . , Ξ μ N r μ N} (μ = 1,2, ..., P)
Connection pattern (length 2N): {η μ 1 , η μ 2 ,. . . , Η μ 2N } (μ = 1, 2,..., P)
Matching pattern (length N): {z 1 , z 2 ,. . . , Z N }
Neural network state: {x 1 (t), x 2 (t),. . . , X 2N (t)} (t = 0, 1, 2,...)
Reconstruction pattern (length N): {y 1 (t), y 2 (t),. . . , Y N (t)} (t = 0, 1, 2,...)

一例として、想起部102dは、以下の数式を用いて、状態更新ごとに比較部102eによる比較結果を反映した、制約項付きのエネルギー関数Eの値を求めてもよい。
As an example, the recall unit 102d may obtain the value of the energy function E with a constraint term that reflects the comparison result by the comparison unit 102e for each state update, using the following formula.

また、一例として、想起部102dは、以下の数式を用いて、ニューラルネットワークの各神経細胞ユニットの内部ポテンシャルh(t)を求めてもよい。
As an example, the recall unit 102d may obtain the internal potential h i (t) of each nerve cell unit of the neural network using the following mathematical formula.

また、一例として、想起部102dは、以下の数式を用いて、ニューラルネットワークの各神経細胞ユニットの状態更新確率Prob(x(t+1)=1)を求めてもよい。
ここで、想起部102dは、状態更新(t→t+1)のたびに、増加率βにて逆温度βを再設定する(すなわち、β(t+1)=γβ(t))。
Further, as an example, the recalling unit 102d may obtain the state update probability Prob (x i (t + 1) = 1) of each nerve cell unit of the neural network using the following formula.
Here, each time the state is updated (t → t + 1), the recalling unit 102d resets the reverse temperature β at the increase rate β (that is, β (t + 1) = γβ (t)).

以上のように、一例として、想起部102dは、1回の状態更新ごとに、比較部102eによる比較結果を反映した制約項付きエネルギー関数Eによる内部ポテンシャルh(t)と逆温度β(t)を再計算し、それらによって定められる各神経細胞ユニットの状態更新確率を再計算する。この逐次更新される各神経細胞ユニットの状態更新確率により、逆温度βが低い初期条件や、再構成パターンと照合パターン間で値が一致していない部分では、対応する神経細胞ユニットの状態更新確率は高いので、当該神経細胞ユニットの状態x(t)の変化(0⇔1)が施される。一方、逆温度β(t)が指数関数的(γt−1)に上昇して、再構成パターンと照合パターン間で値が一致してくると、対応する神経細胞ユニットの状態更新確率は低くなり、当該神経細胞ユニットの状態は一定の安定状態に落ちつき、ニューラルネットワーク全体が収束するようになる。 As described above, as an example, the recalling unit 102d has an internal potential h i (t) and an inverse temperature β (t by the energy function E with a constraint term reflecting the comparison result by the comparison unit 102e for each state update. ) And recalculate the state update probability of each neuronal unit defined by them. Due to the state update probability of each neuron unit that is sequentially updated, the state update probability of the corresponding neuron unit in the initial condition where the reverse temperature β is low or in the part where the value does not match between the reconstructed pattern and the matching pattern Is high, the state x (t) of the nerve cell unit is changed (0⇔1). On the other hand, when the inverse temperature β (t) rises exponentially (γ t−1 ) and the values match between the reconstruction pattern and the matching pattern, the state update probability of the corresponding neuron unit is low. Thus, the state of the nerve cell unit falls to a certain stable state, and the entire neural network converges.

一方、想起部102dは、所定のステップ数の状態更新を行うと収束したとみなして、そのときの状態を復号化した再構成パターンを出力部114等に出力する。なお、閾値以下のエネルギー関数の値を得られない場合は、想起が失敗したとして、逆温度の増加率γの値を下げるなど再設定を行った上で、再度、初期状態から想起処理を繰返してもよい。なお、想起部102dは、以下の式を用いて、ニューラルネットワークの状態を復号してもよい。なお、再構成パターンを{y(t),y(t),...,y(t)}と表す。
(t)=x2k−1(t)x2k(t)
On the other hand, the recalling unit 102d considers that the state has converged when the state is updated by a predetermined number of steps, and outputs a reconstruction pattern obtained by decoding the state at that time to the output unit 114 or the like. If the value of the energy function below the threshold cannot be obtained, it is assumed that the recall has failed, and the recall process is repeated from the initial state again after resetting the value of the reverse temperature increase rate γ, etc. May be. Note that the recalling unit 102d may decode the state of the neural network using the following equation. Note that the reconstruction pattern is expressed as {y 1 (t), y 2 (t),. . . , Y N (t)}.
y k (t) = x 2k−1 (t) x 2k (t)

以上が、本実施の形態における画像認識装置100の構成の一例である。なお、画像認識装置100は、ネットワーク300を介して外部システム200に接続されてもよい。この場合、通信制御インターフェース部104は、画像認識装置100とネットワーク300(またはルータ等の通信装置)との間における通信制御を行う。すなわち、通信制御インターフェース部104は、他の端末と通信回線を介してデータを通信する機能を有する。また、ネットワーク300は、画像認識装置100と外部システム200とを相互に接続する機能を有し、例えば、インターネット等である。   The above is an example of the configuration of the image recognition apparatus 100 in the present embodiment. Note that the image recognition apparatus 100 may be connected to the external system 200 via the network 300. In this case, the communication control interface unit 104 performs communication control between the image recognition device 100 and the network 300 (or a communication device such as a router). That is, the communication control interface unit 104 has a function of communicating data with other terminals via a communication line. The network 300 has a function of connecting the image recognition apparatus 100 and the external system 200 to each other, for example, the Internet.

また、外部システム200は、ネットワーク300を介して、画像認識装置100と相互に接続され、各種パラメータに関する外部データベースや、接続されたコンピュータ(情報処理装置)に画像認識方法を実行させるためのプログラム等を提供する機能を有する。   The external system 200 is mutually connected to the image recognition apparatus 100 via the network 300, an external database regarding various parameters, a program for causing the connected computer (information processing apparatus) to execute an image recognition method, and the like. It has a function to provide.

ここで、外部システム200は、WEBサーバやASPサーバ等として構成していてもよい。また、外部システム200のハードウェア構成は、一般に市販されるワークステーション、パーソナルコンピュータ等の情報処理装置およびその付属装置により構成していてもよい。また、外部システム200の各機能は、外部システム200のハードウェア構成中のCPU、ディスク装置、メモリ装置、入力装置、出力装置、通信制御装置等およびそれらを制御するプログラム等により実現される。   Here, the external system 200 may be configured as a WEB server, an ASP server, or the like. Further, the hardware configuration of the external system 200 may be configured by an information processing apparatus such as a commercially available workstation or a personal computer and its attached devices. Each function of the external system 200 is realized by a CPU, a disk device, a memory device, an input device, an output device, a communication control device, and the like in the hardware configuration of the external system 200 and a program for controlling them.

以上で、本実施の形態の構成の説明を終える。   This is the end of the description of the configuration of the present embodiment.

[画像認識装置100の処理]
次に、このように構成された本実施の形態における画像認識装置100の処理の一例について、以下に図10を参照して詳細に説明する。図10は、本実施の形態における画像認識装置100の基本処理の一例を示すフローチャートである。
[Processing of Image Recognition Device 100]
Next, an example of processing of the image recognition apparatus 100 according to the present embodiment configured as described above will be described in detail with reference to FIG. FIG. 10 is a flowchart showing an example of basic processing of the image recognition apparatus 100 in the present embodiment.

図10に示すように、まず、マスク生成部102aは、ランダムな二値パターンであるランダムマスクを生成する(ステップSA−1)。一例として、マスク生成部102aは、乱数表等を用いて、乱数列rμ(μ=1,2,・・・,P)を生成してもよい。 As shown in FIG. 10, first, the mask generation unit 102a generates a random mask that is a random binary pattern (step SA-1). As an example, the mask generation unit 102a may generate a random number sequence r μ (μ = 1, 2,..., P) using a random number table or the like.

そして、論理演算部102bは、マスク生成部102aにより生成されたマスクパターン(ランダムマスク)と元パターンとの論理演算(XNOR演算またはXOR演算)を行うことにより被マスクパターンを生成する(ステップSA−2)。   Then, the logic operation unit 102b generates a masked pattern by performing a logic operation (XNOR operation or XOR operation) between the mask pattern (random mask) generated by the mask generation unit 102a and the original pattern (step SA- 2).

そして、学習部102cは、ニューラルネットワークを用いた連想記憶モデルにて連結パターンを学習させる(ステップSA−3)。   And the learning part 102c is made to learn a connection pattern by the associative memory model using a neural network (step SA-3).

そして、想起部102dは、手がかり画像である照合パターンを連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ、状態更新を繰り返すことにより、想起結果の再構成パターンを求める(ステップSA−4)。その際、想起部102dは、比較部102eにより状態更新ごとに設定される各神経細胞ユニットの状態更新の制約を受けながらニューラルネットワークの状態更新を行う。すなわち、比較部102eは、想起部102dにより状態更新に伴って復号化された再構成パターンと照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する神経細胞ユニットについては、状態更新時に更新前の状態と異なる値を取り易いように制約を加える。所定のステップ数の状態更新を行うと、想起部102dは、そのときの状態を復号化した再構成パターンを出力部114等に出力して処理を終了する。   Then, the recalling unit 102d introduces a collation pattern, which is a clue image, into the associative memory model, obtains a reconstruction pattern by decoding the state and obtains a reconstruction pattern, and obtains a reconstruction pattern of the recall result (step) SA-4). At that time, the recalling unit 102d updates the state of the neural network while receiving restrictions on the state update of each nerve cell unit set for each state update by the comparison unit 102e. That is, the comparison unit 102e compares the reconstructed pattern decoded by the recalling unit 102d with the state update and the collation pattern, and corresponds to a portion where the value matches between the reconstructed pattern and the collation pattern. For the neuron unit to be updated, it is constrained to easily take the same value as the state before update at the time of state update, while for the neuron unit corresponding to the portion where the value does not match, the state before update at the time of state update Add constraints to make it easier to take different values. When the state is updated by a predetermined number of steps, the recalling unit 102d outputs the reconstructed pattern obtained by decoding the state at that time to the output unit 114 and ends the process.

以上が、本実施形態における画像認識装置100の基本処理の一例である。   The above is an example of the basic processing of the image recognition apparatus 100 in the present embodiment.

[想起処理]
つぎに、画像認識装置100の基本処理の一部を具体化した想起処理の一例について以下に図11を参照して説明する。図11は、本実施の形態における画像認識装置100の想起処理の一例を示すフローチャートである。
[Recall processing]
Next, an example of a recall process that embodies part of the basic process of the image recognition apparatus 100 will be described below with reference to FIG. FIG. 11 is a flowchart showing an example of the recall process of the image recognition apparatus 100 in the present embodiment.

図11に示すように、想起部102dは、利用者に入力部112等を介して、手がかりとなる画像データである照合パターンを入力させるよう制御する(ステップSA−41)。このほか、想起部102dは、利用者に入力部112等を介して、冷却率γ、初期逆温度β0、状態更新させるステップ数Tを設定させてもよい。   As shown in FIG. 11, the recalling unit 102d controls the user to input a collation pattern, which is image data serving as a clue, via the input unit 112 or the like (step SA-41). In addition, the recalling unit 102d may cause the user to set the cooling rate γ, the initial reverse temperature β0, and the number of steps T for updating the state via the input unit 112 or the like.

そして、想起部102dは、ニューラルネットワークを初期化し、時刻tに1を代入するとともに、逆温度βにβ0を代入する(ステップSA−42)。   Then, the recalling unit 102d initializes the neural network, substitutes 1 for the time t, and substitutes β0 for the reverse temperature β (step SA-42).

そして、想起部102dは、ニューラルネットワークの状態を復号化して、出力として再構成パターンを計算する(ステップSA−43)。   Then, the recall unit 102d decodes the state of the neural network and calculates a reconstruction pattern as an output (step SA-43).

そして、比較部102eは、入力された照合パターンと、出力された再構成パターンを比較して、制約項を計算する(ステップSA−44)。   Then, the comparison unit 102e compares the input collation pattern with the output reconstruction pattern, and calculates a constraint term (step SA-44).

そして、想起部102dは、比較部102eにより計算された制約項を含むエネルギー関数の値E(t)と逆温度β(t)に従って、各神経細胞ユニットの状態更新確率Prob(x(t+1)=1)を求め、その確率に従ってニューラルネットワークを更新する(ステップSA−45)。 Then, the recalling unit 102d determines the state update probability Prob (x i (t + 1) of each nerve cell unit according to the energy function value E (t) including the constraint term calculated by the comparison unit 102e and the inverse temperature β (t). = 1) and the neural network is updated according to the probability (step SA-45).

そして、想起部102dは、更新したステップ数である時刻tが、所定のステップ数Tに到達したか否かを判定する(ステップSA−46)。   Then, the recalling unit 102d determines whether or not the time t, which is the updated number of steps, has reached a predetermined number of steps T (step SA-46).

所定のステップ数Tに到達していない場合は(ステップSA−46,No)、想起部102dは、tをインクリメント(t→t+1)し、逆温度β(t)にγを乗じてβ(t+1)を設定し(ステップSA−47)、上述したステップSA−43〜SA−46の処理を繰返す。   When the predetermined number of steps T has not been reached (step SA-46, No), the recalling unit 102d increments t (t → t + 1), multiplies the inverse temperature β (t) by γ, and then β (t + 1 ) Is set (step SA-47), and the above-described steps SA-43 to SA-46 are repeated.

一方、所定のステップ数Tに達した場合は(ステップSA−46,Yes)、想起部102dは、そのときのニューラルネットワークの状態を復号化して再構成パターンを取得し出力部114に出力し、想起処理を終える(ステップSA−48)。   On the other hand, when the predetermined number of steps T has been reached (step SA-46, Yes), the recalling unit 102d decodes the state of the neural network at that time, acquires a reconstruction pattern, and outputs it to the output unit 114. The recall process is finished (step SA-48).

[実施例]
つづいて、上述した実施の形態を適用して、マスク情報を用いずに画像想起を行った実施例について、以下に図12を参照して説明する。図12は、本実施例によるマスク情報を用いずに画像想起を行った結果を示す図である。
[Example]
Next, an example in which the above-described embodiment is applied and image recall is performed without using mask information will be described below with reference to FIG. FIG. 12 is a diagram showing the results of image recall without using mask information according to this example.

本実施例では、上述した本実施の形態による制約付き焼き鈍し法を用いた。本実施例で用いた記憶画像は、公開画像データベースのUSC−SIPI image databaseの中から選んだ4枚の画像(Lena, Mandrill, Peppers, Tree)である。これらの画像は24ビットRGBで表現されており、画像のサイズを縦64ピクセル、横64ピクセルに縮小した後、二値データに変換して使用した。二値データの長さはN=98304ビットであった。   In this example, the constrained annealing method according to the present embodiment described above was used. The stored images used in the present embodiment are four images (Lena, Mandrill, Peppers, Tree) selected from the USC-SIPI image database of the public image database. These images are expressed in 24-bit RGB. The image size was reduced to 64 pixels in the vertical direction and 64 pixels in the horizontal direction, and then converted into binary data for use. The length of the binary data was N = 98304 bits.

これらの元データをブロック長L=2で連結パターンに変換し、結合が疎な自己連想記憶モデルに記憶した。各神経細胞ユニットが受け取る結合数は一律にK=1500とし、結合元は神経細胞ユニット毎にランダムに定めた。また、結合重みを正規化するために学習則を一部変更し、通常の式では神経細胞ユニット数N´で割るところを、代わりにKで割った。   These original data were converted into a connection pattern with a block length L = 2 and stored in a self-associative memory model with a loose connection. The number of connections received by each nerve cell unit was uniformly set to K = 1500, and the connection source was randomly determined for each nerve cell unit. Further, in order to normalize the connection weight, a part of the learning rule was changed, and in the normal formula, the division by the number N ′ of nerve cell units was divided by K instead.

数値計算の条件は、制約の強さがs=0.7、逆温度の初期値がβ(0)=1.0、逆温度の増幅率がγ=1.05と設定した。神経回路網の初期状態は、ランダムな状態を用いた。手掛かりパターンとして、4種類の完全な記憶データ(図12の第1列の上から4つの画像)と、2種類のノイズ有りデータ(同第1列の下から2つの画像)を用いた。ノイズ有りデータは、一つはLena画像に対応する二値データに対しランダムに10%のビットを反転して作成し、もう一つはLena画像の左20%を黒で塗りつぶした画像を二値データ化して作成した。両者は元データからの反転ビット数がほぼ同じである。   The numerical calculation conditions were set such that the constraint strength was s = 0.7, the initial value of the reverse temperature was β (0) = 1.0, and the amplification factor of the reverse temperature was γ = 1.05. The initial state of the neural network was a random state. As the clue pattern, four types of complete stored data (four images from the top of the first column in FIG. 12) and two types of data with noise (two images from the bottom of the first column) were used. The noisy data is created by randomly inverting 10% of the binary data corresponding to the Lena image, and the other is a binary image obtained by filling the left 20% of the Lena image with black. Created with data. Both have the same number of inverted bits from the original data.

以上の条件で制約付き焼き鈍し法により状態更新を行ったところ、いずれも50ステップ以内に対応する画像出力が得られた。状態更新が確率的であるので結果は試行毎に変わる可能性があるが、制約付き焼き鈍し法を繰り返し試してみたところ、ほとんどの場合で正しい画像が出力された。特に、手掛かりパターンがノイズ有りの場合でも、対応するLena画像を想起することが出来た。以上より、提案する制約付き焼き鈍し法によって、マスク情報無しに手掛かりパターンから対応する記憶パターンを正しく取り出せることが示された。なお、本実施例では、実際にはカラー画像を用いてカラーの再構成画像を得られたが、電子出願の様式上、図12では白黒で表示している。本実施例の結果得られたカラー画像については、公表論文を参照することができる(Makito Oku, Takaki Makino, and Kazuyuki Aihara, “Pseudo−Orthogonalization of Memory Patterns for Associative Memory” Neural Networks and Learning Systems, IEEE Transactions, 2013, Volume:24 , Issue: 11, pp.1877−1887)。   When the state was updated by the constrained annealing method under the above conditions, the corresponding image output was obtained within 50 steps. Since the state update is probabilistic, the results may vary from trial to trial, but repeated trials of the constrained annealing method yielded correct images in most cases. In particular, even when the clue pattern is noisy, the corresponding Lena image can be recalled. From the above, it was shown that the corresponding storage pattern can be correctly extracted from the clue pattern by the proposed constrained annealing method without mask information. In the present embodiment, a color reconstructed image was actually obtained using a color image, but in the form of an electronic application, it is displayed in black and white in FIG. For the color image obtained as a result of this example, it is possible to refer to published papers (Makito Oku, Takaki Ei and S et al. Transactions, 2013, Volume: 24, Issue: 11, pp. 1877-1887).

以上で、本実施の形態の説明を終える。   This is the end of the description of the present embodiment.

[他の実施の形態]
さて、これまで本発明の実施の形態について説明したが、本発明は、上述した実施の形態以外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実施の形態にて実施されてよいものである。
[Other embodiments]
Although the embodiments of the present invention have been described so far, the present invention is not limited to the above-described embodiments, but can be applied to various different embodiments within the scope of the technical idea described in the claims. It may be implemented.

また、画像認識装置100がスタンドアローンの形態で処理を行う場合を一例に説明したが、画像認識装置100は、クライアント端末からの要求に応じて処理を行い、その処理結果を当該クライアント端末に返却するようにしてもよい。   Moreover, although the case where the image recognition apparatus 100 performs processing in a stand-alone form has been described as an example, the image recognition apparatus 100 performs processing in response to a request from the client terminal, and returns the processing result to the client terminal. You may make it do.

また、実施の形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。   In addition, among the processes described in the embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method.

このほか、上記文献中や図面中で示した処理手順、制御手順、具体的名称、各処理の登録データや検索条件等のパラメータを含む情報、画面例、データベース構成については、特記する場合を除いて任意に変更することができる。   In addition, unless otherwise specified, the processing procedures, control procedures, specific names, information including registration data for each processing, parameters such as search conditions, screen examples, and database configurations shown in the above documents and drawings Can be changed arbitrarily.

また、画像認識装置100に関して、図示の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。   Further, regarding the image recognition apparatus 100, each illustrated component is functionally conceptual, and does not necessarily need to be physically configured as illustrated.

例えば、画像認識装置100の各装置が備える処理機能、特に制御部102にて行われる各処理機能については、その全部または任意の一部を、CPU(Central Processing Unit)および当該CPUにて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジックによるハードウェアとして実現してもよい。なお、プログラムは、後述する記録媒体に記録されており、必要に応じて画像認識装置100に機械的に読み取られる。すなわち、ROMまたはHDなどの記憶部106などには、OS(Operating System)として協働してCPUに命令を与え、各種処理を行うためのコンピュータプログラムが記録されている。このコンピュータプログラムは、RAMにロードされることによって実行され、CPUと協働して制御部を構成する。   For example, the processing functions provided in each device of the image recognition device 100, in particular, the processing functions performed by the control unit 102, all or any part thereof are interpreted and executed by a CPU (Central Processing Unit) and the CPU. It may be realized by a program to be executed, or may be realized as hardware by wired logic. The program is recorded on a recording medium to be described later, and is mechanically read by the image recognition apparatus 100 as necessary. That is, in the storage unit 106 such as a ROM or an HD, a computer program for performing various processes by giving instructions to the CPU in cooperation with an OS (Operating System) is recorded. This computer program is executed by being loaded into the RAM, and constitutes a control unit in cooperation with the CPU.

また、このコンピュータプログラムは、画像認識装置100に対して任意のネットワーク300を介して接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。   The computer program may be stored in an application program server connected to the image recognition apparatus 100 via an arbitrary network 300, and may be downloaded in whole or in part as necessary. It is.

また、本発明に係るプログラムを、コンピュータ読み取り可能な記録媒体に格納してもよく、また、プログラム製品として構成することもできる。ここで、この「記録媒体」とは、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD−ROM、MO、DVD、および、Blu−ray Disc等の任意の「可搬用の物理媒体」を含むものとする。   In addition, the program according to the present invention may be stored in a computer-readable recording medium, and may be configured as a program product. Here, the “recording medium” is any memory card, USB memory, SD card, flexible disk, magneto-optical disk, ROM, EPROM, EEPROM, CD-ROM, MO, DVD, Blu-ray Disc, etc. Of “portable physical media”.

また、「プログラム」とは、任意の言語や記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。なお、「プログラム」は必ずしも単一的に構成されるものに限られず、複数のモジュールやライブラリとして分散構成されるものや、OS(Operating System)に代表される別個のプログラムと協働してその機能を達成するものをも含む。なお、実施の形態に示した各装置において記録媒体を読み取るための具体的な構成、読み取り手順、あるいは、読み取り後のインストール手順等については、周知の構成や手順を用いることができる。   The “program” is a data processing method described in an arbitrary language or description method, and may be in any format such as source code or binary code. The “program” is not necessarily limited to a single configuration, but is distributed in the form of a plurality of modules and libraries, or in cooperation with a separate program represented by an OS (Operating System). Including those that achieve the function. Note that a well-known configuration and procedure can be used for a specific configuration for reading a recording medium, a reading procedure, an installation procedure after reading, and the like in each device described in the embodiment.

記憶部106に格納される各種のデータベース等(ニューロンファイル106b等)は、RAM、ROM等のメモリ装置、ハードディスク等の固定ディスク装置、フレキシブルディスク、および、光ディスク等のストレージ手段であり、各種処理やウェブサイト提供に用いる各種のプログラム、テーブル、データベース、および、ウェブページ用ファイル等を格納する。   Various databases and the like (neuron file 106b and the like) stored in the storage unit 106 are storage means such as a memory device such as a RAM and a ROM, a fixed disk device such as a hard disk, a flexible disk, and an optical disk. Stores various programs, tables, databases, web page files, etc. used for providing websites.

また、画像認識装置100は、既知のパーソナルコンピュータ、ワークステーション等の情報処理装置として構成してもよく、また、該情報処理装置に任意の周辺装置を接続して構成してもよい。また、画像認識装置100は、該情報処理装置に本発明の方法を実現させるソフトウェア(プログラム、データ等を含む)を実装することにより実現してもよい。   The image recognition apparatus 100 may be configured as an information processing apparatus such as a known personal computer or workstation, or may be configured by connecting any peripheral device to the information processing apparatus. The image recognition apparatus 100 may be realized by installing software (including programs, data, and the like) that causes the information processing apparatus to realize the method of the present invention.

更に、装置の分散・統合の具体的形態は図示するものに限られず、その全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。すなわち、上述した実施形態を任意に組み合わせて実施してもよく、実施形態を選択的に実施してもよい。   Furthermore, the specific form of distribution / integration of the devices is not limited to that shown in the figure, and all or a part of them may be functional or physical in arbitrary units according to various additions or according to functional loads. Can be distributed and integrated. That is, the above-described embodiments may be arbitrarily combined and may be selectively implemented.

以上詳述に説明したように、本発明によれば、マスク化されたパターンが保存された連想記憶モデルのニューラルネットワークにおいて、マスクパターンを用いずに、対応するパターンを取り出すことができる、画像認識装置、画像認識方法、および、プログラムを提供することができ、特に画像認識や画像処理などの様々な分野において極めて有用である。   As described above in detail, according to the present invention, in the associative memory model neural network in which the masked pattern is stored, the corresponding pattern can be extracted without using the mask pattern. An apparatus, an image recognition method, and a program can be provided, and is particularly useful in various fields such as image recognition and image processing.

100 画像認識装置
102 制御部
102a マスク生成部
102b 論理演算部
102c 学習部
102d 想起部
102e 比較部
104 通信制御インターフェース部
106 記憶部
106b ニューロンファイル
108 入出力制御インターフェース部
112 入力部
114 出力部
200 外部システム
300 ネットワーク
DESCRIPTION OF SYMBOLS 100 Image recognition apparatus 102 Control part 102a Mask production | generation part 102b Logic operation part 102c Learning part 102d Recall part 102e Comparison part 104 Communication control interface part 106 Memory | storage part 106b Neuron file 108 Input / output control interface part 112 Input part 114 Output part 200 External system 300 network

Claims (10)

少なくとも記憶部と制御部を備えた画像認識装置であって、
上記記憶部は、
複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを、神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルに関する情報を記憶し、
上記制御部は、
指定された、手がかり画像である照合パターンを上記連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める想起手段と、
上記想起手段により上記状態更新に伴って復号化された上記再構成パターンと、上記照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手段と、
を備えたことを特徴とする画像認識装置。
An image recognition device having at least a storage unit and a control unit,
The storage unit
An association in which a neural network consisting of neural cell units learns a connection pattern in which a mask pattern is associated with a mask pattern that is an exclusive OR or a negative exclusive OR of an original pattern and a mask pattern of multiple images. Memorize information about the memory model,
The control unit
Recall means for obtaining a reconstructed pattern of a recall result by introducing a matching pattern, which is a specified cue image, into the associative memory model, decoding a state and obtaining a reconstructed pattern and repeating state updating;
The reconstructed pattern decoded with the state update by the recalling unit is compared with the collation pattern, and the nerve corresponding to the portion where the value is identical between the reconstructed pattern and the collation pattern For the cell unit, it is constrained to easily take the same value as the state before the update at the time of the state update. On the other hand, the state before the update at the time of the state update for the nerve cell unit corresponding to the portion where the value does not match A comparison means for constraining to make it easy to take a value different from
An image recognition apparatus comprising:
請求項1に記載の画像認識装置において、
上記想起手段は、
焼き鈍し法により、上記状態更新に伴って温度を徐々に下げることにより上記ニューラルネットワークの状態を収束させて、エネルギー関数の値がローカルミニマムに陥らないように制御すること、
を特徴とする画像認識装置。
The image recognition apparatus according to claim 1,
The above recall means
By annealing, the state of the neural network is converged by gradually lowering the temperature along with the state update, and the energy function value is controlled so as not to fall into a local minimum.
An image recognition apparatus.
請求項2に記載の画像認識装置において、
上記想起手段は、
1回の上記状態更新ごとに、逆温度に増加率を乗ずることにより、指数関数的に温度を下げること、
を特徴とする画像認識装置。
The image recognition apparatus according to claim 2,
The above recall means
Each time the state is updated, the temperature is decreased exponentially by multiplying the reverse temperature by the rate of increase.
An image recognition apparatus.
請求項3に記載の画像認識装置において、
上記比較手段は、
上記制約を加えるために、上記再構成パターンと上記照合パターン間の値の積の総和に応じて、上記ニューラルネットワークのエネルギー関数の値が小さくなる制約項を設定すること、
を特徴とする画像認識装置。
The image recognition apparatus according to claim 3.
The comparison means is
In order to add the constraint, setting a constraint term that reduces the value of the energy function of the neural network in accordance with the sum of products of values between the reconstruction pattern and the matching pattern;
An image recognition apparatus.
請求項4に記載の画像認識装置において、
上記神経細胞ユニットの内部ポテンシャルは、
上記制約項付きのエネルギー関数を当該神経細胞ユニットの状態で偏微分して符号を反転させたものであり、
上記神経細胞ユニットの状態更新確率は、
上記内部ポテンシャルと上記逆温度の積の符号を反転させたものを基数とした指数に1を加えたものを分母とし、1を分子とする分数で表され、
上記想起手段は、
1回の上記状態更新ごとに、上記状態更新確率を再計算すること、
を特徴とする画像認識装置。
The image recognition apparatus according to claim 4.
The internal potential of the neuron unit is
The energy function with the constraint term is partially differentiated in the state of the nerve cell unit and the sign is inverted.
The state update probability of the above neuron unit is
The exponent obtained by reversing the sign of the product of the internal potential and the inverse temperature and adding 1 to the base is represented as a fraction with 1 as the numerator,
The above recall means
Recalculating the state update probability for each state update,
An image recognition apparatus.
請求項1乃至5のいずれか一つに記載の画像認識装置において、
上記想起手段は、
初期状態で上記ニューラルネットワークをランダムな値に設定し、同期的かつ確率的な更新則に従って、上記ニューラルネットワークの状態を更新すること、
を特徴とする画像認識装置。
The image recognition apparatus according to any one of claims 1 to 5,
The above recall means
Setting the neural network to a random value in the initial state and updating the state of the neural network according to a synchronous and probabilistic update rule;
An image recognition apparatus.
請求項1乃至6に記載の画像認識装置において、
上記マスクパターンは、
ランダムな二値パターンであること、
を特徴とする画像認識装置。
The image recognition device according to claim 1,
The mask pattern is
Be a random binary pattern,
An image recognition apparatus.
請求項7に記載の画像認識装置において、
上記被マスクパターンは、
上記複数の画像のうち上記元パターン中の任意の数のビットごとに共通した上記マスクパターンにより作成されたパターンであること、
を特徴とする画像認識装置。
The image recognition apparatus according to claim 7.
The mask pattern is
The pattern created by the mask pattern common to any number of bits in the original pattern among the plurality of images,
An image recognition apparatus.
少なくとも記憶部と制御部を備えたコンピュータにおいて実行される画像認識方法であって、
上記記憶部は、
複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを、神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルに関する情報を記憶しており、
上記制御部において実行される、
指定された、手がかり画像である照合パターンを上記連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める想起手順と、
上記想起手段により上記状態更新に伴って復号化された上記再構成パターンと、上記照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手順と、
を含むことを特徴とする画像認識方法。
An image recognition method executed in a computer including at least a storage unit and a control unit,
The storage unit
An association in which a neural network consisting of neural cell units learns a connection pattern in which a mask pattern is associated with a mask pattern that is an exclusive OR or a negative exclusive OR of an original pattern and a mask pattern of multiple images. Remembers information about the memory model,
Executed in the control unit,
A recall process for obtaining a reconstructed pattern of a recall result by introducing a matching pattern that is a designated cue image into the associative memory model, repeating the state update while decoding the state and obtaining the reconstructed pattern, and
The reconstructed pattern decoded with the state update by the recalling unit is compared with the collation pattern, and the nerve corresponding to the portion where the value is identical between the reconstructed pattern and the collation pattern For the cell unit, it is constrained to easily take the same value as the state before the update at the time of the state update. On the other hand, the state before the update at the time of the state update for the nerve cell unit corresponding to the portion where the value does not match. A comparison procedure that adds constraints to make it easier to take different values.
An image recognition method comprising:
少なくとも記憶部と制御部を備えたコンピュータに実行させるためのプログラムであって、
上記記憶部は、
複数の画像の元パターンとマスクパターンとの排他的論理和または否定排他的論理和である被マスクパターンに当該マスクパターンを対応付けた連結パターンを、神経細胞ユニットからなるニューラルネットワークに学習させた連想記憶モデルに関する情報を記憶しており、
上記制御部において実行される、
指定された、手がかり画像である照合パターンを上記連想記憶モデルに導入し、状態を復号化して再構成パターンを求めつつ状態更新を繰り返すことにより、想起結果の再構成パターンを求める想起手順と、
上記想起手段により上記状態更新に伴って復号化された上記再構成パターンと、上記照合パターンとを比較し、当該再構成パターンと当該照合パターン間で値が一致している部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と同じ値を取り易いように制約し、一方、当該値が一致しない部分に対応する上記神経細胞ユニットについては、上記状態更新時に更新前の状態と異なる値を取り易いように制約を加える比較手順と、
を実行させるためのプログラム。
A program for causing a computer including at least a storage unit and a control unit to be executed,
The storage unit
An association in which a neural network consisting of neural cell units learns a connection pattern in which a mask pattern is associated with a mask pattern that is an exclusive OR or a negative exclusive OR of an original pattern and a mask pattern of multiple images. Remembers information about the memory model,
Executed in the control unit,
A recall process for obtaining a reconstructed pattern of a recall result by introducing a matching pattern that is a designated cue image into the associative memory model, repeating the state update while decoding the state and obtaining the reconstructed pattern, and
The reconstructed pattern decoded with the state update by the recalling unit is compared with the collation pattern, and the nerve corresponding to the portion where the value is identical between the reconstructed pattern and the collation pattern For the cell unit, it is constrained to easily take the same value as the state before the update at the time of the state update. On the other hand, the state before the update at the time of the state update for the nerve cell unit corresponding to the portion where the value does not match. A comparison procedure that adds constraints to make it easier to take different values.
A program for running
JP2013233401A 2013-11-11 2013-11-11 Image recognition device, image recognition method, and program Pending JP2015095042A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013233401A JP2015095042A (en) 2013-11-11 2013-11-11 Image recognition device, image recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013233401A JP2015095042A (en) 2013-11-11 2013-11-11 Image recognition device, image recognition method, and program

Publications (1)

Publication Number Publication Date
JP2015095042A true JP2015095042A (en) 2015-05-18

Family

ID=53197412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013233401A Pending JP2015095042A (en) 2013-11-11 2013-11-11 Image recognition device, image recognition method, and program

Country Status (1)

Country Link
JP (1) JP2015095042A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230437A (en) * 2017-12-15 2018-06-29 深圳市商汤科技有限公司 Scene reconstruction method and device, electronic equipment, program and medium
WO2019236885A1 (en) * 2018-06-06 2019-12-12 Cognex Corporation System and method for finding and classifying patterns in an image with a vision system
CN111247535A (en) * 2017-10-13 2020-06-05 Sualab有限公司 Depth-based image comparison apparatus, method, and computer program stored on computer-readable medium
JPWO2019082283A1 (en) * 2017-10-24 2020-11-19 暢 長坂 Image analyzer

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111247535A (en) * 2017-10-13 2020-06-05 Sualab有限公司 Depth-based image comparison apparatus, method, and computer program stored on computer-readable medium
CN111247535B (en) * 2017-10-13 2023-09-29 Sualab有限公司 Depth-based image comparison apparatus, method, and computer-readable medium
JPWO2019082283A1 (en) * 2017-10-24 2020-11-19 暢 長坂 Image analyzer
US11321832B2 (en) 2017-10-24 2022-05-03 Toru Nagasaka Image analysis device
CN108230437A (en) * 2017-12-15 2018-06-29 深圳市商汤科技有限公司 Scene reconstruction method and device, electronic equipment, program and medium
CN108230437B (en) * 2017-12-15 2021-11-09 深圳市商汤科技有限公司 Scene reconstruction method and apparatus, electronic device, program, and medium
WO2019236885A1 (en) * 2018-06-06 2019-12-12 Cognex Corporation System and method for finding and classifying patterns in an image with a vision system
US11568629B2 (en) 2018-06-06 2023-01-31 Cognex Corporation System and method for finding and classifying patterns in an image with a vision system

Similar Documents

Publication Publication Date Title
Schuman et al. Evolutionary optimization for neuromorphic systems
Chang Deep and shallow architecture of multilayer neural networks
KR102558300B1 (en) Neural Networks and How to Train Neural Networks
US20210089845A1 (en) Teaching gan (generative adversarial networks) to generate per-pixel annotation
CN113707235A (en) Method, device and equipment for predicting properties of small drug molecules based on self-supervision learning
CN112418292B (en) Image quality evaluation method, device, computer equipment and storage medium
JP2015095042A (en) Image recognition device, image recognition method, and program
WO2021042857A1 (en) Processing method and processing apparatus for image segmentation model
Ghanbari et al. Reconstruction of gene networks using prior knowledge
US20220101144A1 (en) Training a latent-variable generative model with a noise contrastive prior
US20170004417A1 (en) Method of generating features optimal to a dataset and classifier
JP6325762B1 (en) Information processing apparatus, information processing method, and information processing program
JP7131616B2 (en) Time-series data processor
Knop et al. Generative models with kernel distance in data space
JP2015141541A (en) Image recognition apparatus, image recognition method and program
CN116503320A (en) Hyperspectral image anomaly detection method, hyperspectral image anomaly detection device, hyperspectral image anomaly detection equipment and readable storage medium
Oku et al. Pseudo-orthogonalization of memory patterns for associative memory
Zhang et al. Compressing knowledge graph embedding with relational graph auto-encoder
JP2015095041A (en) Image recognition device, image recognition method, and program
CN111767825A (en) Face attribute invariant robustness face recognition method and system
Hoffman Cramnet: layer-wise deep neural network compression with knowledge transfer from a teacher network
CN117594157B (en) Method and device for generating molecules of single system based on reinforcement learning
US20240013758A1 (en) Music data analysis apparatus and method using topological data analysis, and music data generation apparatus using the same
CN117540828B (en) Training method and device for training subject recommendation model, electronic equipment and storage medium
Chen et al. Gibbs ensembles for incompatible dependency networks