JPH08161284A - Ciphering and deciphering devices - Google Patents
Ciphering and deciphering devicesInfo
- Publication number
- JPH08161284A JPH08161284A JP6303593A JP30359394A JPH08161284A JP H08161284 A JPH08161284 A JP H08161284A JP 6303593 A JP6303593 A JP 6303593A JP 30359394 A JP30359394 A JP 30359394A JP H08161284 A JPH08161284 A JP H08161284A
- Authority
- JP
- Japan
- Prior art keywords
- input
- layer
- neural network
- output
- coupling coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Abstract
Description
【0001】[0001]
【産業上の利用分野】この発明は平文データを暗号化す
る鍵と、暗号化データを復号化する鍵とが異なる非対称
暗号系の暗号化装置及びその復号化装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an asymmetric encryption type encryption device in which a key for encrypting plaintext data and a key for decrypting encrypted data are different, and a decryption device thereof.
【0002】[0002]
【従来の技術】非対称暗号系では暗号化鍵と復号化鍵と
が異なっているため、暗号化鍵が知られても、または暗
号化鍵を公開しても復号化鍵を知らなければ解読は容易
にできない。このような非対称暗号系を実現するアルゴ
リズムは例えば岡本栄司著「暗号理論入門」共立出版株
式会社1993年発行に説明されている。2. Description of the Related Art In an asymmetric cryptosystem, an encryption key and a decryption key are different from each other. Therefore, even if the encryption key is known, or even if the encryption key is disclosed, the decryption key cannot be decrypted. I can't do it easily. An algorithm for realizing such an asymmetric encryption system is described, for example, in "Introduction to Cryptography" by Eiji Okamoto, published by Kyoritsu Shuppan Co., Ltd. in 1993.
【0003】[0003]
【発明が解決しようとする課題】非対称暗号は解読に対
して強いが、RSA暗号、エルガユル暗号などの非対称
暗号は効果的な暗号化鍵、復号化鍵を算出するのが困難
であり、例えば4〜5つの制約条件を同時に満たす鍵を
作成するために多くの計算量を必要とした。Asymmetric encryption is strong against cracking, but asymmetric encryption such as RSA encryption and Ergayul encryption makes it difficult to calculate effective encryption and decryption keys. A large amount of calculation is required to create a key that simultaneously satisfies the five constraints.
【0004】[0004]
【課題を解決するための手段】この発明の暗号化装置に
おいては、複数のニューロンが層状に結合された層状ニ
ューラルネットワークよりなり、この層状ニューラルネ
ットワークは、これに対し、他の層状ニューラルネット
ワークが後段に結合され、その結合されたニューラルネ
ットワークに対し、データセットの各要素を入力とし、
その出力が入力と等しくなるようにバックプロパゲーシ
ョン学習により、各層間の結合係数が決定された後、上
記他の層状ニューラルネットワークが外されたものであ
って、平文データが入力され、その暗号化データを出力
する。The encryption device of the present invention comprises a layered neural network in which a plurality of neurons are connected in layers, and this layered neural network, on the other hand, has another layered neural network in the latter stage. Is input to the connected neural network, and each element of the data set is input as
After the coupling coefficient between each layer is determined by backpropagation learning so that its output becomes equal to the input, the other layered neural network is removed, and the plaintext data is input and the encrypted Output the data.
【0005】この発明の復号化装置は複数のニューロン
が層状に結合された層状ニューラルネットワークよりな
り、この層状ニューラルネットワークは、これに対し、
他の層状ニューラルネットワークが前段に結合され、そ
の結合されたニューラルネットワークに対し、データセ
ットの各要素を入力とし、その出力が入力と等しくなる
ようにバックプロパゲーション学習により、各層間の結
合係数が決定された後、上記他の層状ニューラルネット
ワークが外されたものであり、暗号化データが入力さ
れ、その復号化平文データを出力する。The decoding device of the present invention comprises a layered neural network in which a plurality of neurons are connected in layers. This layered neural network, on the other hand,
The other layered neural network is connected to the preceding stage, and the coupling coefficient between each layer is obtained by back propagation learning so that each element of the data set is input to the connected neural network and its output is equal to the input. After being determined, the other layered neural network is removed, the encrypted data is input, and the decrypted plaintext data is output.
【0006】[0006]
【実施例】図1Aにこの発明による暗号化装置により平
文データを暗号化し、その暗号化データを伝送し、その
伝送された暗号化データをこの発明による復号化装置で
復号化して平文データを得るシステムを示す。暗号化装
置11はこの例では複数のニューロン12が層状に結合
された層状ニューラルネットワークからなり、この例で
は2層構造とされた場合であり、入力層13と出力層1
4とからなる。入力層13に平文データが入力され、出
力層14から暗号化データを出力する。この暗号化デー
タは伝送路15で復号化装置16へ伝送される。復号化
装置16も複数のニューロンを層状に結合した層状ニュ
ーラルネットワークからなり、この例では2層構造とさ
れた場合で、入力層17と出力層18とからなる。入力
層17に伝送路15からの暗号化データが入力され、出
力層18から復号化された平文データが出力される。1A, plaintext data is encrypted by an encryption device according to the present invention, the encrypted data is transmitted, and the transmitted encrypted data is decrypted by a decryption device according to the present invention to obtain plaintext data. Shows the system. In this example, the encryption device 11 is composed of a layered neural network in which a plurality of neurons 12 are connected in a layered structure. In this example, the encryption device 11 has a two-layer structure. The input layer 13 and the output layer 1
4 and. Plaintext data is input to the input layer 13, and encrypted data is output from the output layer 14. This encrypted data is transmitted to the decryption device 16 via the transmission line 15. The decoding device 16 is also composed of a layered neural network in which a plurality of neurons are connected in layers, and in this example, when it has a two-layer structure, it is composed of an input layer 17 and an output layer 18. The encrypted data from the transmission line 15 is input to the input layer 17, and the decrypted plaintext data is output from the output layer 18.
【0007】暗号化装置11及び復号化装置16の各ニ
ューラルネットワークは次のように層間結合係数が決定
されて暗号化、復号化がなされる。つまり、図1Bに示
すように暗号化装置のニューラルネットワークの後段に
復号化装置16のニューラルネットワークを結合させた
3層のニューラルネットワークを作る。つまり、この中
間層19は暗号化装置11の出力層14であると共に復
号化装置16の入力層17である。各ニューロンはその
1つ前の層の各ニューロンの出力に、その両ニューロン
間の予め決めた結合係数(重み)を乗算した結果を加算
したものを変数とする関数の結果を出力するものである
が、結合ニューラルネットワークにデータセットの各要
素を入力し、その出力が入力と等しくなるようにバック
プロパゲーション学習により各層間の結合係数を決定す
る。データセットは平文に使われる記号の集合を示し、
例えばアルファベットからなるデータセットはAlph
a={A,a,B,b,……Z,z}である。バックプ
ロパゲーション学習については、例えば Rumelhart D.
E. "Parallel Distributed Processing" Mit Press1986
に説明されている。つまりデータセットとして例えばロ
ーマ字のアルファベットを想定した場合、その要素A,
B,…を1つずつ、例えばAを入力層13に入力し、出
力層18の出力がAとなるように学習して結合係数を決
定し、次にBを同様に入力し、出力がBとなるように学
習して結合係数を決定し、以下各要素について順次行
い、入力した何れの要素を入力しても入力と同一の要素
が出力されるまで学習を行う。In each neural network of the encryption device 11 and the decryption device 16, the inter-layer coupling coefficient is determined as follows, and encryption and decryption are performed. In other words, as shown in FIG. 1B, a three-layer neural network in which the neural network of the decryption device 16 is connected after the neural network of the encryption device is created. That is, the intermediate layer 19 is the output layer 14 of the encryption device 11 and the input layer 17 of the decryption device 16. Each neuron outputs a result of a function having a variable obtained by adding the result of multiplying the output of each neuron in the immediately preceding layer by a predetermined coupling coefficient (weight) between the two neurons. Inputs each element of the data set to the joint neural network, and determines the coupling coefficient between the respective layers by back propagation learning so that the output becomes equal to the input. The dataset shows the set of symbols used in plaintext,
For example, the alphabet data set is Alpha
a = {A, a, B, b, ... Z, z}. For backpropagation learning, for example Rumelhart D.
E. "Parallel Distributed Processing" Mit Press1986
Explained. In other words, assuming a Roman alphabet, for example, as the data set, its element A,
Each of B, ..., For example, A is input to the input layer 13, learning is performed so that the output of the output layer 18 becomes A, the coupling coefficient is determined, and then B is similarly input, and the output is B. The learning is performed so that the coupling coefficient is determined, and thereafter, each element is sequentially performed, and learning is performed until the same element as the input is output even if any input element is input.
【0008】この結合係数を決定する処理は、例えば図
2に示すようにすればよい。先ずデータセットを入力し
(S1 ),パラメータSを0に初期化し(S2 ),デー
タセット中から1つの要素を結合ニューラルネットワー
クに入力し(S3 ),その時の結合ニューラルネットワ
ークの出力が入力と同じであれば、Sを+1し、同じで
なければ、入力要素を教師信号としてバックプロパゲー
ション学習をする(S 4 )。次に入力したデータセット
中の全ての要素を検査したかを調べ、終わってなければ
ステップS3 に戻り(S5 ),全ての要素を検査した場
合はSの値がデータセット中の要素数と等しいかを調べ
(S6 ),等しくなければステップS2に戻り、等しい
場合はこの結合ネットワークの各層間結合係数を鍵とし
て出力する(S7 )。The process for determining the coupling coefficient is, for example, as shown in FIG.
As shown in FIG. First enter the data set
(S1), And the parameter S is initialized to 0 (S2), Day
Connect one element from the tasset Neural network
Type in (S3), Then the connected neural network
If the output of the speaker is the same as the input, add 1 to S
If not, backpropagation is performed using the input element as the teacher signal.
Learning (S Four). Next input dataset
Check if all the elements inside are inspected and if not done
Step S3Return to (SFive), When all elements are inspected
If the value of S is equal to the number of elements in the dataset, check
(S6), If not equal to step S2Return to and equal
In this case, the key is the inter-layer coupling coefficient of this coupling network.
And output (S7).
【0009】つまり、このようにして学習した結合ニュ
ーラルネットワークの入力層13と中間層19間の結合
係数を、暗号化鍵として、暗号化装置11の入力層13
と出力層14との層間結合係数とする。また中間層19
と出力層18との間の結合係数を復号化鍵として復号化
装置16の入力層17と出力層18との層間結合係数と
する。That is, the coupling coefficient between the input layer 13 and the intermediate layer 19 of the coupled neural network learned in this way is used as an encryption key, and the input layer 13 of the encryption device 11 is used.
And the output layer 14 as an interlayer coupling coefficient. Also, the intermediate layer 19
The inter-layer coupling coefficient between the input layer 17 and the output layer 18 of the decryption device 16 is defined as the coupling coefficient between the output layer 18 and the output layer 18.
【0010】このように図1Aに示した暗号化装置11
の層間結合係数が予め決められ、また復号化装置16の
層間結合係数が予め決められているため、前記データセ
ットの各要素の時系列からなる平文データが暗号化装置
11の入力層13に入力されると、その出力層14から
暗号化データが出力され、またこの暗号化データが復号
化装置16の入力層17に入力されるとその出力層18
から復号化された平文データが出力される。Thus, the encryption device 11 shown in FIG. 1A.
Since the inter-layer coupling coefficient of 1 is determined in advance and the inter-layer coupling coefficient of the decrypting device 16 is determined in advance, plaintext data consisting of a time series of each element of the data set is input to the input layer 13 of the encryption device 11. Then, the encrypted data is output from the output layer 14, and when the encrypted data is input to the input layer 17 of the decryption device 16, the output layer 18 is output.
The plaintext data decrypted from is output.
【0011】暗号化装置11,復号化装置16はハード
ウエア構成としては例えば図3Aに示すように構成され
る。入出力インターフェイス21に制御プロセッサ2
2,作業用メモリ23,24,ニューラルネットワーク
25が接続され、ニューラルネットワーク25は制御プ
ロセッサ26と結合係数メモリ27,演算結果メモリ2
8とからなる。暗号化装置11の場合は前述したように
して求められた暗号化鍵とし、この層間結合係数が外部
から入出力インターフェイス21を通じて入力される
と、これを制御プロセッサ22は結合係数メモリ27に
記憶し、また復号化装置16の場合は復号化鍵としての
層間結合係数が結合係数メモリ27に記憶される。The hardware configuration of the encryption device 11 and the decryption device 16 is, for example, as shown in FIG. 3A. Control processor 2 for input / output interface 21
2, work memories 23 and 24, and a neural network 25 are connected, and the neural network 25 includes a control processor 26, a coupling coefficient memory 27, and a calculation result memory 2
8 and. In the case of the encryption device 11, the encryption key obtained as described above is used, and when this interlayer coupling coefficient is input from the outside through the input / output interface 21, the control processor 22 stores it in the coupling coefficient memory 27. In the case of the decryption device 16, the inter-layer coupling coefficient as a decryption key is stored in the coupling coefficient memory 27.
【0012】暗号化装置11では入出力インターフェイ
ス21を通じて外部から平文データが作業用メモリ23
に格納され、制御プロセッサ22は作業用メモリ23に
格納された平文データをニューラルネットワーク25へ
転送する。制御プロセッサ26は転送されて来た平文デ
ータを結合係数メモリ27内の層間結合係数を用いて、
図1Aに示した入力層13及び出力層14間の各ニュー
ロンの演算を順次行って、その演算結果をメモリ28に
格納し、出力層14の演算結果は作業用メモリ24に転
送する。制御プロセッサ26から演算終了信号を制御プ
ロセッサ22が受けると、制御プロセッサ22は作業用
メモリ24のデータを暗号化データとして入出力インタ
ーフェイス21を通じて外部へ出力する。復号化装置も
同様に構成される。In the encryption device 11, plaintext data is externally transmitted via the input / output interface 21 to the working memory 23.
The control processor 22 transfers the plaintext data stored in the working memory 23 to the neural network 25. The control processor 26 uses the inter-layer coupling coefficient in the coupling coefficient memory 27 for the transferred plaintext data,
Each neuron between the input layer 13 and the output layer 14 shown in FIG. 1A is sequentially calculated, the calculation result is stored in the memory 28, and the calculation result of the output layer 14 is transferred to the working memory 24. When the control processor 22 receives the calculation end signal from the control processor 26, the control processor 22 outputs the data in the work memory 24 as encrypted data to the outside through the input / output interface 21. The decoding device is similarly configured.
【0013】結合ニューラルネットワーク(図1B)と
しては図3Bに示すように中間層の数を増加させたり、
図3Cに示すように結合様式を変えたり、図3Dに示す
ように、中間層のニューロンの数を減少(増加)したり
してより強固な暗号化を行うようにすることもできる。As a connected neural network (FIG. 1B), it is possible to increase the number of intermediate layers as shown in FIG. 3B.
It is also possible to change the coupling mode as shown in FIG. 3C, or to decrease (increase) the number of neurons in the middle layer to perform stronger encryption as shown in FIG. 3D.
【0014】[0014]
【発明の効果】以上述べたように、この発明によれば暗
号鍵、復号鍵としてそれぞれ1つの3層以上のニューラ
ルネットワークにおける前半の層間結合係数、後半の層
間結合係数を用い、かつ復号化装置のニューラルネット
ワークの構成、つまり層の段数及び各層のニューロンの
数を秘密にしておくことにより、暗号鍵と復号鍵とが異
なる非対称暗号系が構成される。しかもバックプロパゲ
ーションによる層間結合係数の学習は制約条件を伴うこ
となく、単純に行うことができ、暗号解読防止のための
定期的鍵更新を容易に行うことができる。ここで鍵更新
はニューラルネットワークの層数、各層におけるニュー
ロンの数、結合様式などの変更で行う。As described above, according to the present invention, the first half inter-layer coupling coefficient and the second half inter-layer coupling coefficient in one neural network having three or more layers are used as the encryption key and the decryption key, respectively, and the decryption device is used. By keeping the configuration of the neural network of, that is, the number of layers and the number of neurons in each layer secret, an asymmetric cryptosystem with different encryption and decryption keys is constructed. Moreover, the learning of the inter-layer coupling coefficient by back propagation can be simply performed without any constraint condition, and the periodic key update for preventing the decryption can be easily performed. Here, the key is updated by changing the number of layers of the neural network, the number of neurons in each layer, and the connection mode.
【図1】Aはこの発明による暗号化装置11と、復号化
装置16とからなるシステムを示す図、Bはこれら装置
11,16のニューラルネットワークの構成を説明する
ための図である。1 is a diagram showing a system including an encryption device 11 and a decryption device 16 according to the present invention, and FIG. 1B is a diagram for explaining a configuration of a neural network of these devices 11 and 16. FIG.
【図2】暗号鍵、復号鍵としての層間結合係数を求める
処理例を示す流れ図。FIG. 2 is a flowchart showing an example of processing for obtaining an interlayer coupling coefficient as an encryption key and a decryption key.
【図3】Aは暗号化装置11または復号化装置16のハ
ードウエア構成の例を示すブロック図、B乃至Dはそれ
ぞれ図1Bの結合ニューラルネットワークの変形例を示
す図である。3A is a block diagram showing an example of a hardware configuration of an encryption device 11 or a decryption device 16, and FIGS. 3B to 3D are diagrams showing modified examples of the connection neural network of FIG. 1B.
Claims (2)
状ニューラルネットワークよりなり、 この層状ニューラルネットワークは、これに対し、他の
層状ニューラルネットワークが後段に結合され、その結
合されたニューラルネットワークに対し、データセット
の各要素を入力とし、その出力が入力と等しくなるよう
にバックプロパゲーション学習により、各層間の結合係
数が決定された後、上記他の層状ニューラルネットワー
クが外されたものであって、 上記層状ニューラルネットワークに平文データが入力さ
れ、その暗号化データを出力するものであることを特徴
とする暗号化装置。1. A layered neural network in which a plurality of neurons are connected in a layered manner. This layered neural network is connected to another layered neural network at a subsequent stage, and the connected neural network is After the coupling coefficient between each layer is determined by back propagation learning so that each element of the data set is an input and the output is equal to the input, the other layered neural network is removed, An encryption apparatus, wherein plaintext data is input to the layered neural network and the encrypted data is output.
状ニューラルネットワークよりなり、 この層状ニューラルネットワークは、これに対し、他の
層状ニューラルネットワークが前段に結合され、その結
合されたニューラルネットワークに対し、データセット
の各要素を入力とし、その出力が入力と等しくなるよう
にバックプロパゲーション学習により、各層間の結合係
数が決定された後、上記他の層状ニューラルネットワー
クが外されたものであって、 上記層状ニューラルネットワークに暗号化データが入力
され、その復号化データを出力するものであることを特
徴とする復号化装置。2. A layered neural network in which a plurality of neurons are connected in a layered manner. This layered neural network is connected to another layered neural network in the preceding stage, and the connected neural network is After the coupling coefficient between each layer is determined by back propagation learning so that each element of the data set is an input and the output is equal to the input, the other layered neural network is removed, A decoding device, wherein encrypted data is input to the layered neural network and the decrypted data is output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6303593A JPH08161284A (en) | 1994-12-07 | 1994-12-07 | Ciphering and deciphering devices |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6303593A JPH08161284A (en) | 1994-12-07 | 1994-12-07 | Ciphering and deciphering devices |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08161284A true JPH08161284A (en) | 1996-06-21 |
Family
ID=17922873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6303593A Withdrawn JPH08161284A (en) | 1994-12-07 | 1994-12-07 | Ciphering and deciphering devices |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08161284A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2285915A (en) * | 1994-01-20 | 1995-08-02 | Xerox Corp | Corotron wire cleaning tool |
JP2019016166A (en) * | 2017-07-06 | 2019-01-31 | 日本放送協会 | Neural network, encoder, decoder, learning method, control method, and program |
CN110663047A (en) * | 2017-05-25 | 2020-01-07 | 德州仪器公司 | Secure Convolutional Neural Network (CNN) accelerator |
WO2022038845A1 (en) * | 2020-08-21 | 2022-02-24 | アーモンド株式会社 | Encryption method, terminal device, encryption system, and program |
JP2023081793A (en) * | 2021-12-01 | 2023-06-13 | Eaglys株式会社 | Machine learning device, machine learning system, machine learning method and machine learning program |
-
1994
- 1994-12-07 JP JP6303593A patent/JPH08161284A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2285915A (en) * | 1994-01-20 | 1995-08-02 | Xerox Corp | Corotron wire cleaning tool |
CN110663047A (en) * | 2017-05-25 | 2020-01-07 | 德州仪器公司 | Secure Convolutional Neural Network (CNN) accelerator |
US11853857B2 (en) | 2017-05-25 | 2023-12-26 | Texas Instruments Incorporated | Secure convolutional neural networks (CNN) accelerator |
CN110663047B (en) * | 2017-05-25 | 2024-03-26 | 德州仪器公司 | Safe Convolutional Neural Network (CNN) accelerator |
JP2019016166A (en) * | 2017-07-06 | 2019-01-31 | 日本放送協会 | Neural network, encoder, decoder, learning method, control method, and program |
WO2022038845A1 (en) * | 2020-08-21 | 2022-02-24 | アーモンド株式会社 | Encryption method, terminal device, encryption system, and program |
JPWO2022038845A1 (en) * | 2020-08-21 | 2022-02-24 | ||
JP2023081793A (en) * | 2021-12-01 | 2023-06-13 | Eaglys株式会社 | Machine learning device, machine learning system, machine learning method and machine learning program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11087223B2 (en) | Learning and inferring insights from encrypted data | |
Shihab | A backpropagation neural network for computer network security | |
US6052467A (en) | System for ensuring that the blinding of secret-key certificates is restricted, even if the issuing protocol is performed in parallel mode | |
Kiraz et al. | A protocol issue for the malicious case of Yao’s garbled circuit construction | |
US6937728B1 (en) | Verifiable anonymous channel | |
CN114090510B (en) | Block chain-based digital medical information storage and sharing architecture construction method | |
Minelli | Fully homomorphic encryption for machine learning | |
RU2091983C1 (en) | Method of coding of binary information and device for its realization | |
Dolev | Constraining the doability of relativistic quantum tasks | |
US6819764B1 (en) | Data processor, communication system and recording medium | |
KR20240004830A (en) | Blind rotation for use in fully homomorphic encryption | |
CN112838922B (en) | DICOM image asymmetric encryption method based on chaotic mapping and selective Signcryption | |
JPH08161284A (en) | Ciphering and deciphering devices | |
Dunkelman et al. | Full round zero-sum distinguishers on TinyJAMBU-128 and TinyJAMBU-192 Keyed-permutation in the known-key setting | |
Zhang et al. | An Efficient FHE-Enabled Secure Cloud-Edge Computing Architecture for IoMTs Data Protection With Its Application to Pandemic Modelling | |
Mehta et al. | Secret sharing using near-MDS codes | |
Chou et al. | One-out-of-two quantum oblivious transfer based on nonorthogonal states | |
Reddy et al. | Image encryption using orthogonal Hill Cipher algorithm | |
Arora et al. | Application of Artificial Neural Network in Cryptography | |
CN114358323A (en) | Third-party-based efficient Pearson coefficient calculation method in federated learning environment | |
US7133523B2 (en) | Method and system for solving the word problem in braid group cryptosystems | |
CN113973161A (en) | Novel image encryption method of compressed sensing and chaotic system based on deep learning | |
Thanikaiselvan et al. | Encrypting multiple images using stacked autoencoders | |
Stallings | Inside sha-3 | |
Tsuchida et al. | Private decision tree evaluation with constant rounds via (only) fair SS-4PC |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20020305 |