JPH0447474A - Picture processing system using neural network - Google Patents

Picture processing system using neural network

Info

Publication number
JPH0447474A
JPH0447474A JP2153938A JP15393890A JPH0447474A JP H0447474 A JPH0447474 A JP H0447474A JP 2153938 A JP2153938 A JP 2153938A JP 15393890 A JP15393890 A JP 15393890A JP H0447474 A JPH0447474 A JP H0447474A
Authority
JP
Japan
Prior art keywords
neural
image
layer
elements
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2153938A
Other languages
Japanese (ja)
Inventor
Yoshinobu Mita
三田 良信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2153938A priority Critical patent/JPH0447474A/en
Priority to EP91305363A priority patent/EP0461902B1/en
Priority to DE69130656T priority patent/DE69130656T2/en
Publication of JPH0447474A publication Critical patent/JPH0447474A/en
Priority to US08/026,093 priority patent/US5719955A/en
Priority to US08/969,832 priority patent/US6243490B1/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PURPOSE:To improve the precision of picture processing by coupling partial neural elements in the output layer to only partial neural elements in the intermediate layer. CONSTITUTION:Binary picture data of a restoration object inputted from the external is inputted to a line memory 100 having the capacity corresponding to 5 lines. Picture data of 5X5 areas is segmented from picture data in the line memory by a segmenting circuit 101 and is sent to a neural network 102. In the network 102, picture data is inputted to the input layer and is subjected to prescribed picture processing and is outputted from the output layer, and partial neural elements in the output layer are coupled to only partial elements in the intermediate layer. Thus, the quality of picture processing and the learning precision are improved.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明はニューラルネットワークを用いた画像処理方式
に関するもので、詳しくは、例えば、文字や中間調等の
異なる画質を含む画像を高品質に処理する画像処理方式
に関する。
[Detailed Description of the Invention] [Field of Industrial Application] The present invention relates to an image processing method using a neural network. related to image processing methods.

[従来の技術] 従来から、多値画像を2値化する技術や、あるいは逆の
二値画像データから多値画像データを復元する技術や、
空間フィルタリングをかける技術など、多くの画像処理
が行われている。
[Prior Art] Conventionally, there have been techniques for converting multivalued images into binarized images, or for restoring multivalued image data from reverse binary image data,
Many types of image processing are being performed, including techniques for applying spatial filtering.

しかしながら、従来の2値化方法、例えばデイザ法を用
いて二値化した場合には、文字部の解像度やエツジ成分
が失われやすく劣化を生じさせている。また、ED(誤
差拡散)法では、2値化の際に特有の縞パターンを発生
してしまい、その画質が必ずしも良いとは認められてい
ないし、文字部の劣化に関しても、デイザ法よりは改善
されているものの、まだ完全とはいえない。尚、ED法
に関しては、例えば、文献(Floyd Stelnl
oerg:SID、  International 
 SYMP、Syp、  Digest  of  T
ech−nical Papers 4−3 Apri
1′75)を参照すれば十分理解できる。
However, when conventional binarization methods such as the dither method are used for binarization, the resolution and edge components of character portions tend to be lost, causing deterioration. In addition, the ED (error diffusion) method generates a unique striped pattern during binarization, and the image quality is not necessarily considered to be good, and the deterioration of text is also improved compared to the dither method. Although it has been done, it is still not perfect. Regarding the ED method, for example, see the literature (Floyd Sternl
oerg:SID, International
SYMP, Syp, Digest of T
ech-nical Papers 4-3 Apri
1'75) for a sufficient understanding.

また、ニューラルネットワークを用いて二値画像から多
値中間調画像を復元する技術は試みられたことはなく、
従来では二値画像に対し平滑化フィルタをかける事によ
り、多値中間調画像を復元するというのがせいぜいであ
る。
Furthermore, a technique for restoring a multilevel halftone image from a binary image using a neural network has never been attempted.
Conventionally, at best, a multilevel halftone image is restored by applying a smoothing filter to the binary image.

[発明が解決しようとしている課題] この従来の平滑化フィルタによる多値画像復元では、文
字部の解像度が劣化したり、滑らかな濃度勾配を持った
画像部は十分な階調数が得られないという問題が発生し
ていた。従って、ニューラルネットワークを用いた画像
処理による、例えば二値画像から多値画像を復元する技
術が期待されている。ニューラルネットワークの特徴は
、学習を行なうことにより処理精度が飛躍的に高まるこ
とである。しかしながら、二値化処理や多値復元処理に
ニューラルネットワークを用いることは単純ではない。
[Problems to be Solved by the Invention] In multivalued image restoration using this conventional smoothing filter, the resolution of character areas deteriorates, and a sufficient number of gradations cannot be obtained for image areas with smooth density gradients. A problem occurred. Therefore, there are expectations for a technique for restoring a multivalued image from a binary image, for example, by image processing using a neural network. A feature of neural networks is that their processing accuracy increases dramatically through learning. However, it is not simple to use a neural network for binarization processing or multi-value restoration processing.

特に、文字等の二値画像と写真等の中間調画像の混在す
る画像を同時に処理する場合は、学習において、結合定
数が発散してしまうという問題を招(。従って、従来で
は、ニューラルネットワークを用いて画像処理するにつ
いて、どのようなネットワーク構成で神経回路網を組ん
だら良いのか全く考えられていなかったといっても過言
ではない。
In particular, when simultaneously processing images that contain a mixture of binary images such as characters and halftone images such as photographs, a problem arises in which the coupling constant diverges during learning. It is no exaggeration to say that no consideration had been given to what kind of network configuration should be used to form a neural network for image processing.

そこで本発明は、例えば、文字等の二値画像と写真等の
中間調画像の混在する画像を同時に処理して、例えば二
値画像から多値画像を復元する等の画像処理を高精度に
行なうことのできるニューラルネットワークを用いた画
像処理方式を提案するものである。
Therefore, the present invention simultaneously processes an image containing a mixture of binary images such as characters and halftone images such as photographs, and performs image processing with high precision, such as restoring a multivalued image from a binary image. This paper proposes an image processing method using a neural network that can perform the following tasks.

[課題を解決するための手段] 上記課題を達成するための本発明の構成は、入力層、少
な(とも1つの中間層、出力層とからなるニューラルネ
ットワークを用い、前記入力層に画像データを入力し、
このネットワーク内で所定の画像処理を行ない、前記出
力層から処理された画像データを出力する画像処理方式
であって、出力層の一部のニューラル素子は中間層の一
部のニューラル素子のみと結合しているようになってい
る。
[Means for Solving the Problems] The configuration of the present invention for achieving the above problems uses a neural network consisting of an input layer, at least one intermediate layer, and an output layer, and inputs image data to the input layer. Input,
An image processing method that performs predetermined image processing within this network and outputs the processed image data from the output layer, in which some neural elements in the output layer are coupled only to some neural elements in the intermediate layer. It seems like it is.

画像をブロック処理する場合には、その画質に応じて、
ブロック処理の適用領域は変更されるべきである。上記
本発明の画像処理装置では、ある画質の画像を出力する
ように与えられた出力層のニューラル素子は、上記適当
な大きさのブロックに適合する中間層の一部のニューラ
ル素子とのみ結合しているので、画像処理の質の向上、
学習精度の向上が図れる。
When performing block processing on images, depending on the image quality,
The application area of block processing should be changed. In the image processing device of the present invention, the neural elements in the output layer that are given to output an image of a certain quality are connected only to some neural elements in the intermediate layer that fit into blocks of appropriate size. This improves the quality of image processing,
Learning accuracy can be improved.

[実施例] 以下添付図面を参照しながら、本発明の画像処理方式を
適用した実施例の画像処理装置を2つ(第1.第2実施
例)挙げて説明する。これらの実施例では、二値画像か
ら多値画像に復元する画像処理方式を開示する。即ち、
概略的には、第2図に示すように、5×5画素のブロッ
クを入力し、そのブロックを、多値のエツジ画像データ
と多値の中間調画像データに変換すると共に、そのブロ
ック内の画質を判定して、その判定結果に基づいて上記
多値のエツジ画像データと多値の中間調画像データのい
ずれか最適な方を選択して出力するというものである。
[Embodiments] Two image processing apparatuses (first and second embodiments) to which the image processing method of the present invention is applied will be described below with reference to the accompanying drawings. These embodiments disclose an image processing method for restoring a binary image to a multivalued image. That is,
Generally speaking, as shown in Figure 2, a 5x5 pixel block is input, the block is converted into multi-value edge image data and multi-value halftone image data, and the data in the block is The image quality is determined, and based on the determination result, the optimal one of the multivalued edge image data and the multivalued halftone image data is selected and output.

尚、第2図に示したブロックの大きさは単なる一例に過
ぎないことは言うまでもない。
It goes without saying that the size of the blocks shown in FIG. 2 is merely an example.

これら2つの実施例に特徴的な画像処理方式■:ネット
ワークを用いたこと、 ■:ネットワークの学習に際し、第2図のような5×5
のブロックを学習用データとして入力するのであるが、
文字等のエツジ性の画像の学習には、5×5の領域のう
ち3×3の領域に含まれる学習データを使い、中間調画
像の学習には5X5のブロック全ての画像データを用い
ること、■:文字等のエツジ性の画像の学習を先に行な
って、エツジ性の強い画像処理に関連の深いニューラル
の結合定数(シナプスパラメータ)を決定する。そして
、中間調画像の学習に際しては、先に決定したニューラ
ルの結合定数を固定しておいて、その中間調画像用のニ
ューラルの結合定数を後から決定するというものである
(第2の学習方法)。
Image processing method characteristic of these two embodiments ■: Use of a network; ■: When learning the network, a 5×5
The blocks are input as training data, but
For learning edge-like images such as characters, use learning data included in a 3x3 area of the 5x5 area, and for learning halftone images, use image data from all 5x5 blocks; (2): Learning of images with edge characteristics such as characters is performed first, and neural connection constants (synaptic parameters) closely related to image processing with strong edge characteristics are determined. When learning a halftone image, the neural coupling constant determined first is fixed, and the neural coupling constant for that halftone image is determined later (the second learning method). ).

特に■の点について説明する。文字等のエツジ性の強い
画像データは局所性が強い。一方、反対に、現画像デー
タが中間調画像の場合に、この中間調画像を例えば誤差
拡散法やデイザ法等によって二値化した場合は局所性は
弱く、元の画調は広い領域に分散する。従って、原画が
中間調である二値画像データから多値画像データを復元
するようにニューラルネットワークを学習するには、よ
り大きな領域を参照する方が好ましく、逆に、原画が文
字等のエツジ性の強い画像である場合に、その二値画像
データから多値画像データを復元するようにニューラル
ネットワークを学習させるには、より小さな領域を参照
する方が好ましい。即ち、特に、エツジ性の強い画像の
復元に関して、5X5の25画素の全てを参照するよう
にすると、25画素の2値データが複雑に絡み合い、理
想信号と一致しにくくなるためである。これが、文字等
のエツジ性の画像の学習には、5×5の領域のうち3X
3の領域に含まれる学習データを使い、中間調画像の学
習には5×5のブロック全ての画像データを用いるよう
にした理由である。
In particular, point (■) will be explained. Image data with strong edge characteristics, such as characters, has strong locality. On the other hand, if the current image data is a halftone image and this halftone image is binarized by, for example, an error diffusion method or a dither method, locality is weak and the original image tone is dispersed over a wide area. do. Therefore, in order to train a neural network to restore multilevel image data from binary image data whose original image is halftone, it is preferable to refer to a larger area. In order to train a neural network to restore multi-valued image data from binary image data when the image is a strong one, it is preferable to refer to a smaller area. That is, especially in the case of restoring an image with strong edge characteristics, if all 25 pixels of 5×5 are referred to, the binary data of the 25 pixels will be complicatedly intertwined, and it will be difficult to match the ideal signal. For learning edge-like images such as characters, 3x out of a 5x5 area is required.
This is the reason why the learning data included in the area No. 3 is used, and the image data of all 5×5 blocks are used for learning the halftone image.

く画像処理装置の構成〉 第3図に、第1実施例及び第2実施例に共通な画像処理
装置の構成を示す。図中、外部から入力された復元対象
の二値画像データは5ライン分の容量を有するラインメ
モリに入力される。ラインメモリ中の画像データの中か
ら5×5の領域の画像データが切出し回路101により
切り出され、ニューラルネットワーク102に送られる
。ネットワーク102は第1実施例においては、第1図
のような構成をしており、第2実施例においては、第7
図のような構成をしている。即ち、第1実施例の画像処
理装置と第2実施例の画像処理装置では、主に、ネット
ワーク102内のニューラル同士の結合が異なっている
Configuration of Image Processing Apparatus> FIG. 3 shows the configuration of an image processing apparatus common to the first and second embodiments. In the figure, binary image data to be restored that is input from the outside is input to a line memory having a capacity for five lines. The image data of a 5×5 area is extracted from the image data in the line memory by the extraction circuit 101 and sent to the neural network 102 . In the first embodiment, the network 102 has a configuration as shown in FIG.
It has the configuration shown in the figure. That is, the image processing apparatus of the first embodiment and the image processing apparatus of the second embodiment differ mainly in the connections between the neural networks in the network 102.

このネットワーク102のニューラルの結合定数は後述
する手順により予め学習されており、このネットワーク
102から中間調画像に適した画像信号Gとエツジ画像
に適した画像信号Eとそれらの画調を判別した結果を表
わす領域分離信号Sとが出力され、これらの3つの信号
はセレクタ103に入力される。セレクタ103は、領
域分離信号Sに従って、中間調画像をより良く復元した
画像信号Gとエツジ画像を良く復元した画像信号Eのい
ずれか一方を選択して出力する。
The neural coupling constants of this network 102 are learned in advance by the procedure described below, and the results of determining from this network 102 the image signal G suitable for a halftone image, the image signal E suitable for an edge image, and their image tones. These three signals are input to the selector 103. In accordance with the region separation signal S, the selector 103 selects and outputs either an image signal G in which a halftone image is better restored, or an image signal E in which an edge image is better restored.

尚、ニューラルネットワークそのものの考え方は、例え
ば、「ニューラルネットをパターン認識、信号処理、知
識処理に使う」 (日経エレクトロニクス;1987年
8月10日)等に詳しく説明されている。
The concept of neural networks themselves is explained in detail in, for example, ``Using neural networks for pattern recognition, signal processing, and knowledge processing'' (Nikkei Electronics; August 10, 1987).

く第1実施例〉 第1図により、第1実施例の画像処理装置に係るネット
ワークの構成について説明する。
First Embodiment> The configuration of a network related to an image processing apparatus of a first embodiment will be described with reference to FIG.

このネットワーク102は、5×5のブロックを入力す
るために、入力層に5X5=25個のニューラル素子を
設けた。また、中間調画像信号Gと文字画像信号Eと領
域分離信号Sとを出力するために、出力層には3つのニ
ューラル素子を設けた。また、中間層として、第1実施
例では、−例として1層のみを用い、その素子の総数は
5×5=25個である。
This network 102 has 5×5=25 neural elements in the input layer to input 5×5 blocks. Further, in order to output the halftone image signal G, the character image signal E, and the area separation signal S, three neural elements were provided in the output layer. Further, in the first embodiment, only one layer is used as the intermediate layer, and the total number of elements is 5×5=25.

各層のニューラル素子間の結合について説明する。入力
層の25個の各々の素子は、中間層の25個の各々の素
子と結合している。
The connections between neural elements in each layer will be explained. Each of the 25 elements of the input layer is coupled to each of the 25 elements of the intermediate layer.

中間層と出力層の素子間の結合について説明する。中間
調画像信号Gを出力する出力層ニューラルは中間層の全
ての25個の素子の各々と結合している。即ち、第2図
に関連して説明したように、中間調画像信号Gは5×5
の画素全てを参照して決定される。換言すれば、中間調
画像信号Gを出力するaカ層ニューラルと中間層の全て
の25個の素子の各々との間の結合定数も、5X5=2
5画素の全てを参照して決定される。
The coupling between the elements of the intermediate layer and the output layer will be explained. An output layer neural outputting a halftone image signal G is coupled to each of all 25 elements of the intermediate layer. That is, as explained in connection with FIG. 2, the halftone image signal G is 5×5
It is determined by referring to all pixels of . In other words, the coupling constant between the a-layer neural outputting the halftone image signal G and each of all 25 elements of the intermediate layer is also 5X5=2.
It is determined by referring to all five pixels.

領域分離信号Sを出力する出力層ニューラルも中間層の
全ての25個の素子の各々と結合している。即ち、この
分離信号Sも、このSを出力する出力層ニューラルと中
間層の全ての25個の素子の各々との間の結合定数も、
5×5のブロックの画素全てを参照して決定される。
The output layer neural, which outputs the region separation signal S, is also coupled to each of all 25 elements of the intermediate layer. That is, both this separation signal S and the coupling constant between the output layer neural that outputs this S and each of all 25 elements of the intermediate layer are:
It is determined by referring to all pixels in a 5×5 block.

一方、G、Sとは対照的に、文字画像信号Eを出力する
出力層ニューラルは、中間層の3×3=9個の素子だけ
と結合している。即ち、第2図に関連して説明したよう
に、文字画像信号Eは3×3=9個の画素を参照して決
定される。多値である文字画像信号Eが、2値データ“
0”、“1”から復元された場合、0.4.0.5.0
.6・・・という値よりも、“0”や“1”に非常に近
い特性があるので、出力素子Eとの結合を減らし単純化
させたものである。
On the other hand, in contrast to G and S, the output layer neural outputting the character image signal E is coupled only to 3×3=9 elements of the intermediate layer. That is, as explained in connection with FIG. 2, the character image signal E is determined with reference to 3×3=9 pixels. The multivalued character image signal E is converted into binary data “
0”, 0.4.0.5.0 when restored from “1”
.. Since it has a characteristic much closer to "0" or "1" than the value 6..., it is simplified by reducing the coupling with the output element E.

5×5のブロック中における3、×3のブロックの位置
について説明する。原則的には、第2図における5X5
のブロックと3×3のブロックの位置関係については強
い制限はない。しかし、二値画像データが、どのような
二値化処理を用いて原画像から生成されたかに応じて決
められるべきである。本実施例では、5×5のブロック
から1つの注目画素についての多値データを復元するも
のであるから、第2図のように、5×5のブロックの中
心を3×3のブロックの中心と一致させるのが好ましい
The position of the 3x3 block in the 5x5 block will be explained. In principle, 5X5 in Figure 2
There is no strong restriction on the positional relationship between the block and the 3×3 block. However, it should be determined according to what kind of binarization process was used to generate the binary image data from the original image. In this example, multi-value data for one pixel of interest is restored from a 5x5 block, so as shown in Figure 2, the center of the 5x5 block is set to the center of the 3x3 block. It is preferable to match the

次に、以下2つの例を挙げて学習の態様を説明する。Next, the mode of learning will be explained using the following two examples.

−の熊   の1 学習時には、学習用入力画像として2値画像を与え、ニ
ューラルネットワーク102に与える理想出力としては
多値画像を与える。
1. During learning, a binary image is given as a learning input image, and a multivalued image is given as an ideal output to the neural network 102.

しかし、2値画像を復元することにより理想出力である
多値画像を求めることは不可能なので、実際にデータが
はっきりとわかっている多値画像(これを理想信号とす
る)を2値化して、学習用入力信号として与える。又、
中間調画像信号G。
However, it is impossible to obtain a multi-value image, which is the ideal output, by restoring a binary image, so a multi-value image whose data is clearly known (this is assumed to be the ideal signal) is converted into a binary image. , given as a learning input signal. or,
Halftone image signal G.

文字画像信号Eには、全く同じ理想信号を与えて学習を
行う。即ち、第4図に示すように、原画像としての多値
画像データ110を用意し、この画像データ110を、
5×5のデイザマトリックス111と3×3の固定閾値
マトリックス112で二値化する。また、画像データ1
10を領域分離フィルタ113にも人力し、信号Sを得
る。セレクタ114は、信号Sに従って、二値化器11
1112により二値化された信号G、Hのいずれかを選
択する。こうして得た学習用の二値画像データ116を
5×5のブロック毎に切り出して第1図のネットワーク
の入力層に入力する。また、原画像の多値信号110及
び領域分離信号115は理想出力信号として、結合定数
の計算の際に用いられる。
Learning is performed by giving exactly the same ideal signal to the character image signal E. That is, as shown in FIG. 4, multivalued image data 110 as an original image is prepared, and this image data 110 is
Binarization is performed using a 5×5 dither matrix 111 and a 3×3 fixed threshold matrix 112. Also, image data 1
10 is also applied to the region separation filter 113 to obtain the signal S. The selector 114 selects the binarizer 11 according to the signal S.
At step 1112, one of the binarized signals G and H is selected. The binary image data 116 for learning thus obtained is cut out into 5×5 blocks and input into the input layer of the network shown in FIG. Furthermore, the multilevel signal 110 of the original image and the region separation signal 115 are used as ideal output signals when calculating the coupling constant.

尚、学習用の領域分離信号Sについては、多値の理想信
号からエツジ検出を行ったり、補正を施したものを与え
れば良い。
It should be noted that the region separation signal S for learning may be obtained by performing edge detection or correction from a multivalued ideal signal.

又、はじめから文字領域と中間調領域が例えば矩形にく
っきりと分けられる画像を与えても良い。さらに、文字
画像と中間調画像を用意してこれらを合成して画像を作
れば、領域分離信号の理想信号はおのずと生成できる。
Alternatively, an image may be provided in which the character area and the halftone area are clearly divided into, for example, rectangular shapes from the beginning. Furthermore, if a character image and a halftone image are prepared and an image is created by combining them, the ideal signal of the region separation signal can be generated naturally.

二値画像データ116を5×5のブロック毎に切り出し
て第1図のネットワークの入力層に入力する。また、原
画像の多値信号110及び領域分離信号115を理想出
力として出力層に与える。
The binary image data 116 is cut out into 5×5 blocks and input into the input layer of the network shown in FIG. Further, the multi-level signal 110 and the region separation signal 115 of the original image are given to the output layer as ideal outputs.

この場合、中間調の多値画像データも学習用に入力され
得るが、文字画像信号Eについての、中間層での結合の
数が少ないために、入力層における入力の”1”、“0
”の組み合せや、中心画素(注目画素)の重みの影響が
強く残り、高周波成分の文字やエツジが残り易くなるの
で、中間調の多値画像データも学習用に入力されても問
題はない。
In this case, halftone multivalued image data may also be input for learning, but since the number of connections in the middle layer is small for the character image signal E, the inputs in the input layer are "1" and "0".
” and the weight of the center pixel (pixel of interest) remain strongly, and characters and edges with high frequency components tend to remain, so there is no problem even if halftone multi-valued image data is input for learning.

−の態  その2 この第2の学習方法は、第5A図、第5B図に示すよう
に2段階(ステップI、ステップ■)に分れる。但し、
学習データの生成については、前記第1の学習方法と同
じように、第4図に示したものを用いる。
- State Part 2 This second learning method is divided into two stages (Step I, Step ■) as shown in Figures 5A and 5B. however,
Regarding the generation of learning data, as in the first learning method, the data shown in FIG. 4 is used.

第5A図は、文字画像信号Eを出力するのに最適なよう
な学習信号を入力しながら、入力層と中間層間の結合定
数と、中間層の一部のニューラル素子と出力層のニュー
ラル素子E間の結合定数を決定するステップIを説明す
る。即ち、ステップ■においては、5X5の学習用に用
意された二値の文字画像信号が入力層の25素子全部に
入力されて、第5B図において・で示された結合定数が
決定される。
Figure 5A shows the coupling constant between the input layer and the intermediate layer, some neural elements in the intermediate layer, and the neural elements E in the output layer while inputting a learning signal that is optimal for outputting the character image signal E. Step I of determining the coupling constant between. That is, in step (2), the binary character image signal prepared for 5×5 learning is input to all 25 elements of the input layer, and the coupling constant indicated by * in FIG. 5B is determined.

こうして、文字画像用に決定された結合定数(・で示さ
れた)は、第5B図のステップHにおける中間調画像信
号Gと領域分離信号Sのための学習の際には、固定され
ている。即ち、ステップ■においては、5×5の学習用
に用意された二値の中間調画像信号が入力層の25素子
全部に入力されて、第5B図においてOで示された残り
の結合定数が決定される。
Thus, the coupling constant (denoted by .) determined for the character image is fixed during the learning for the halftone image signal G and the region separation signal S in step H of FIG. 5B. . That is, in step (2), the binary halftone image signal prepared for 5×5 learning is input to all 25 elements of the input layer, and the remaining coupling constants indicated by O in FIG. 5B are It is determined.

文字画像信号Eと中間調画像信号Gの出力層のニューラ
ル素子(E、G)が共通して結合している中間層の9 
(=3X3)個のニューラル素子については、両方の画
像特性及び領域分離信号Sに合った結合定数が得られる
ようになる。共有されていない16個の中間層の素子は
中間調画像信号Gと領域分離信号Sの2種類のみを満足
する結合定数で良いので、学習時における結合定数の収
束性は非常に良くなる。
9 of the intermediate layer where the neural elements (E, G) of the output layer of the character image signal E and the halftone image signal G are commonly connected.
For (=3×3) neural elements, a coupling constant that matches both image characteristics and the region separation signal S can be obtained. Since the 16 unshared intermediate layer elements may have coupling constants that satisfy only two types, the halftone image signal G and the region separation signal S, the convergence of the coupling constants during learning is very good.

又、前述の共有する中間層の9素子の結合定数が文字画
像信号Eをより良く出力するように決まって、G、Sに
対する結合定数としては、十分でない場合にも、共有し
ない16素子との結合強度(結合定数)により、G、S
を理想信号に近づけるように補正が働(ようになる。
In addition, even if the coupling constant of the 9 elements of the shared intermediate layer described above is determined to better output the character image signal E, but is not sufficient as the coupling constant for G and S, the coupling constant with the 16 elements that are not shared is determined to better output the character image signal E. Depending on the bond strength (coupling constant), G, S
The correction works to bring the signal closer to the ideal signal.

尚、ステップIにおける学習用の画像データ中に中間調
画像が含まれている場合、またステップHにおける学習
用の画像データ中に文字画像が含まれている場合には、
領域分離信号Sの理想信号が、夫々、文字画像を示して
いる時、中間調画像を示している時のみに学習を行い、
結合定数を更新し、その他の場合には学習を行わないよ
うにすれば良い。
Note that if the image data for learning in step I includes a halftone image, or if the image data for learning in step H includes a character image,
Learning is performed only when the ideal signal of the region separation signal S indicates a character image and a halftone image, respectively.
All you have to do is update the coupling constant and not perform learning in other cases.

第2の学習手法に対する変形として次のようなものを提
案する。即ち、学習方法2におけるステップ■段階では
、与える理想信号、入力信号、領域分離信号として、文
字・中間調画像両方を与えて、全てのケースで学習させ
ても良い。
We propose the following modification to the second learning method. That is, in step (2) of learning method 2, both characters and halftone images may be provided as the ideal signal, input signal, and region separation signal, and learning may be performed in all cases.

また、ステップエにおいて、文字画像信号Eに関する結
合定数を理想的に決定するために、出力層や中間層とそ
の前段の層の結合で前段の素子に対し、結合をすべて共
有する結合定数以外は1時的に全く結合を切り離した状
態を仮定して、学習を行い、残りの結合定数の決定を行
い、これを固定するようにしてもよい。
In addition, in step E, in order to ideally determine the coupling constant for the character image signal E, in the coupling between the output layer or intermediate layer and the layer in the previous stage, the coupling constants other than those that share all the couplings with the previous stage element are set to 1. It is also possible to perform learning by assuming a state in which the bond is completely disconnected from time to time, determine the remaining coupling constant, and fix this.

11立見Iま1 次に、ニューラルネットワーク102の学習について、
その手順の概略を第1図を用いて説明する。
11 Standing Ima1 Next, regarding the learning of the neural network 102,
An outline of the procedure will be explained using FIG.

先ず、学習データとして、例えば第4図に示すような二
値画像データ116と理想出力としての多値画像データ
110とを用意する。この理想出力は教師信号(tea
ch信号)を生成するために使用される。そして、入力
層と中間層間の結合強度W 4 、と中間層と圧力層間
の結合強度W0を初期的に適当に決定してから、この初
期値に基づいて結合されたネットワークに、学習データ
として上記二値画像データ116を入力し、8カの多値
画像データ(kout)を得る。この出力と前記理想出
力としての原子値画像データとを比較し、この比較から
教師信号(teach)を生成する。この過程を第1図
では、■中■の過程として示している。この教師信号か
ら、パックプロパゲーション法により、学習しながら前
記W j l I W +1 jを修正していく。この
過程は、第1図では、■中■として示されている。この
学習を繰返すと、結合強度W、1゜Wlは、二値画像か
ら多値画像への復元に適切なものとして修正されていく
。学習の結果として得られた結合強度W J i 1 
W M jはネットワーク102内に保持される。
First, as learning data, for example, binary image data 116 as shown in FIG. 4 and multi-value image data 110 as an ideal output are prepared. This ideal output is the teacher signal (tea
channel signal). Then, after initially appropriately determining the coupling strength W 4 between the input layer and the hidden layer and the coupling strength W0 between the middle layer and the pressure layer, the above-mentioned above is added to the network connected based on these initial values as learning data. Binary image data 116 is input, and eight multivalued image data (kout) are obtained. This output is compared with the atomic value image data as the ideal output, and a teaching signal (teach) is generated from this comparison. This process is shown in FIG. From this teacher signal, the above W j l I W +1 j is corrected while learning by the pack propagation method. This process is shown as ■ in Figure 1. By repeating this learning, the coupling strength W and 1°Wl are modified to be appropriate for restoring a binary image to a multivalued image. Connection strength W J i 1 obtained as a result of learning
W M j is maintained within network 102 .

第6A図、第6B図を用いて学習のための手順を詳細に
説明する。尚、このフローチャートに示された手順は、
前述の第1の学習手法と第2の学習手法に共通ではある
ものとして示されているが、相違部分はその都度説明す
る。
The learning procedure will be explained in detail using FIG. 6A and FIG. 6B. The steps shown in this flowchart are as follows:
Although the above-described first learning method and second learning method are shown as being common, the differences will be explained each time.

同図のステップ5402では、入力層と中間層の結びつ
きの強さを示す重み係数WJ8、中間層と出力層の結び
つきの強さを示す重み係数Wk、に初期値を与える部分
である。初期値として、学習過程の収束を考慮して、−
〇、5〜+0.5の範囲の値を選択する。ステップ54
04では、学習用の入力データのなかから、任意の5×
5のブロックを選択する。ステップ8404〜ステツプ
8406は、ニューラルネットワークへの入出力データ
のセットの手順である。即ち、ステップ5406では、
この5×5領域内の画像データ1out(i)(ここで
、i=1〜16)を入力層のニューラルにセットする。
In step 5402 in the figure, initial values are given to the weighting coefficient WJ8 indicating the strength of the connection between the input layer and the intermediate layer, and the weighting coefficient Wk indicating the strength of the connection between the intermediate layer and the output layer. As an initial value, −
〇, select a value in the range of 5 to +0.5. Step 54
In 04, select any 5× from the input data for learning.
Select block 5. Steps 8404 to 8406 are procedures for setting input and output data to the neural network. That is, in step 5406,
The image data 1out(i) (here, i=1 to 16) within this 5×5 area is set to the neural of the input layer.

尚、入力層に与える信号は画像データが8ビツト0〜2
55とすると、255で割った0〜1.0までの値が与
えられる。
Note that the signal given to the input layer is image data of 8 bits 0 to 2.
If it is 55, a value between 0 and 1.0 divided by 255 is given.

次に、ステップ5408では、理、!!4出力としての
多値画像データ110 (ideal out)と領域
分離信号115とを用意する。
Next, in step 5408, Ri,! ! Multivalued image data 110 (ideal out) and region separation signal 115 as four outputs are prepared.

ステップ5410は、与えられた変換係数に基づき出力
kout (k)を計算する手順を示している。
Step 5410 shows a procedure for calculating the output kout (k) based on the given transform coefficients.

即ち、入力層からのデータ1out(i)に中間層の係
数W、Iを掛け、その総和SumyJを、Sumr= 
 =Σ、WJI fj、i) * 1out(i)  
・・+・−(1)計算し、次に1番目の中間層の出力j
out(j)を、0/1に正規化するために51gl1
+oid関数を用いて、 を計算する。ここでSumriのFは前向き(Forw
ard)を意味する。同様にして、中間層から出力層へ
の出力値koutは次のようにして求める。まず、初め
に出力層の係数W 、 Jを用い、中間層からの出力値
jout(j)とにより積の総和を求めその値Su++
□を得る。
That is, data 1out(i) from the input layer is multiplied by the coefficients W and I of the intermediate layer, and the sum SumyJ is calculated as Sumr=
=Σ, WJI fj, i) * 1out(i)
・・+・−(1) Calculate, then output j of the first intermediate layer
51gl1 to normalize out(j) to 0/1
Calculate using the +oid function. Here, F in Sumri is Forward.
ard). Similarly, the output value kout from the intermediate layer to the output layer is determined as follows. First, using the coefficients W and J of the output layer and the output value jout(j) from the intermediate layer, the sum of the products is calculated and the value Su++
Get □.

5ulllyi+ = 、X: WIIJ (k、J)
本jout(j)  ・・” ”  (3)次に、0/
1に正規化するために8Ngmoid関数を用いて、 に従って出力層にの出力kout (k)を得る。ここ
で、kはに=1〜3であり、k=1は中間調画像信号出
力Gを、k=2は文字画像信号出力Eを、k=3は領域
分離信号出力Sを意味する。
5ullyi+ = ,X: WIIJ (k, J)
This jout(j)...” ” (3) Next, 0/
Using the 8Ngmoid function to normalize to 1, we obtain the output kout (k) to the output layer according to . Here, k=1 to 3, k=1 means halftone image signal output G, k=2 means character image signal output E, and k=3 means area separation signal output S.

こうして、1組のサンプルデータについてのFORWA
RD方向の計算を終了する。以下は、BACKWARD
の演算、即ち、上記入力と理想出力の組から成るサンプ
ルデータからの学習により、結合強度を補正するための
手順である。
Thus, FORWA for a set of sample data
The calculation in the RD direction is completed. Below is BACKWARD
In other words, this is a procedure for correcting the coupling strength by learning from sample data consisting of a pair of the above input and ideal output.

ステップ5412で、初期値(ステップ5402でセッ
ト)のWJllwilJから計算した出力値koutと
、予め用意しである理想出力1deal out(k)
とを比較する。即ち、この比較により、出力層の教師信
号teach k(k)を、 teac3k(k)= (ideal−out(k) 
−kout(k))*kout(k)*(1−kout
(k))・・・・・・ (5) により計算する。(5)式中のkout(k)*(1−
kout (k) )はsigmoid関数の微分値の
意義を有する。次に、ステップ5414で、出力層の結
合度の変化幅△Wm7(k、j)を求める。即ち、△L
J(k、J) =β傘jout(j)*teach k
(k)十α*△LJ(k、 j)  ・・・・・・(6
)を計算する。尚、α、βは固定値の係数で、この実施
例では、0.5とした。ステップ5415では、この変
化幅△WkJ (k、 j)に基づいて、中間層と出力
相関の結合度WkJ(k、j)を更新する、即ち、学習
する。
In step 5412, the output value kout calculated from the initial value (set in step 5402) WJllwilJ and the ideal output 1deal out(k) prepared in advance are calculated.
Compare with. That is, by this comparison, the teacher signal teach k(k) of the output layer is expressed as teac3k(k)=(ideal-out(k)
-kout(k))*kout(k)*(1-kout
(k))... Calculate according to (5). (5) kout(k)*(1-
kout (k) ) has the significance of a differential value of a sigmoid function. Next, in step 5414, the variation width ΔWm7(k, j) of the degree of coupling of the output layer is determined. That is, △L
J(k, J) = β umbrella jout(j)*teach k
(k) 1α*△LJ (k, j) ・・・・・・(6
). Note that α and β are fixed value coefficients, and in this example, they are set to 0.5. In step 5415, the degree of coupling WkJ (k, j) between the intermediate layer and the output correlation is updated, that is, learned, based on this change width ΔWkJ (k, j).

WkJ (k、 j) =△LJ(k、j) + LJ
(k、J)・・・・・・(7) 次に、ステップ5416で、中間層の教師信号teac
hj (j)を計算する。即ち、先ず、5“°”″“i
 teach−k(k)1N・・(k・J )  、、
 < 8)に基づいて、中間層の各ニューラルにおける
、出力層からのBACKWARD方向の寄与を演算する
。そして、この寄与を、次式に従ってsigmoid関
数の微分値を用いて正規化することにより、中間層の教
師信号teach j(j)を演算する。
WkJ (k, j) = △LJ (k, j) + LJ
(k, J) (7) Next, in step 5416, the intermediate layer teacher signal teac
Calculate hj (j). That is, first, 5"°"""i
teach-k(k)1N...(kJ) ,,
< 8), calculate the contribution from the output layer in the BACKWARD direction to each neural in the intermediate layer. Then, by normalizing this contribution using the differential value of the sigmoid function according to the following equation, the intermediate layer teaching signal teach j (j) is calculated.

teachj (j)= jout(j)傘(1−jo
ut(j))傘Sums。
teachj (j) = jout(j) umbrella (1-jo
ut (j)) Umbrella Sums.

・・・・・・(9) 尚、(9)式のteachj (j)は中間層における
理想信号としての意義を有する。
(9) Note that teachj (j) in equation (9) has a meaning as an ideal signal in the intermediate layer.

次に、ステップ5418で、この教師信号teach 
j(j)を用いて、中間層の結合度の変化幅△W J 
l (j、 i)を演算する。即ち、△WJl(j、i
)=β*1out(i)*teach−j(j)+α申
△wJI(j、i)・・・・・・(10)そして、ステ
ップ5420では結合度WJ+(j、i)を更新する。
Next, in step 5418, this teacher signal teach
Using j (j), change width of the degree of coupling of the intermediate layer △W J
Calculate l (j, i). That is, △WJl(j, i
)=β*1out(i)*teach-j(j)+αinΔwJI(j,i) (10) Then, in step 5420, the degree of connectivity WJ+(j,i) is updated.

即ち、 WJ l(j、 i) = WJ + (、L i)+
△WJIF、1)である。
That is, WJ l(j, i) = WJ + (, L i)+
ΔWJIF, 1).

こうして、Loutとしての1組(3x3の多値画像デ
ータ)と、これに対応する理想出力データとしてのデイ
ザ処理された二値データ1deal outとから、パ
ックプロパゲーション法に基づいて、結合度WJlとW
k、とが−回、学習された。ステップ5422では、こ
のような操作を、全組のサンプリング入力データについ
て行なったかを調べ、全組のサンプリングデータについ
て実行するまでステップ8404〜ステツプ5420の
手順を繰返す。
In this way, based on the pack propagation method, the degree of connectivity WJl is calculated from one set (3x3 multivalued image data) as Lout and the corresponding dithered binary data 1deal out as ideal output data. W
k, has been learned - times. In step 5422, it is checked whether such operations have been performed on all sets of sampling input data, and the procedures from step 8404 to step 5420 are repeated until they have been performed on all sets of sampling data.

全組のサンプリングデータについての学習を1回だけ行
なったのでは精度が低いと考えられるので、ステップ5
424での判断により、この精度が高(なったと考えら
れるまで、ステップ3404〜ステツプ5422の処理
を繰返す。
If the learning for all sets of sampling data is performed only once, the accuracy is considered to be low, so step 5
The processing of steps 3404 to 5422 is repeated until the accuracy is considered to be high (according to the judgment in step 424).

尚、前述の第2の学習方法(第5A図、第5B図)で学
習を行なう場合には、ステップ5415及びステップ5
420における結合定数Wの更新処理は必要なものだけ
に対して行なわれる。即ち、第5B図の・で示した結合
定数を学習する場合(ステップI)は、0で示した結合
定数Wのステップ5415及びステップ5420におけ
る更新については省略される。また、反対に、○で示し
た結合定数を学習する場合(ステップ■)は、・で示し
た結合定数Wのステップ5415及びステップ5420
における更新については省略される。
Note that when learning is performed using the second learning method described above (FIGS. 5A and 5B), step 5415 and step 5 are performed.
The updating process of the coupling constant W at 420 is performed only for necessary ones. That is, when learning the coupling constant indicated by . in FIG. 5B (step I), updating of the coupling constant W indicated by 0 in steps 5415 and 5420 is omitted. Conversely, when learning the coupling constants indicated by ○ (step ■), step 5415 and step 5420 of the coupling constant W indicated by .
Updates in are omitted.

尚、ステップ5404で指定されるブロックの位置はシ
ーケンシャルでな(ランダムに指定される方がよい。
Note that the positions of the blocks specified in step 5404 should not be sequential (it is better to specify them randomly).

以上が、第1実施例の原理と、その実施例におけるパッ
クプロパゲーション法に基づいた学習手順の説明である
The above is the explanation of the principle of the first embodiment and the learning procedure based on the pack propagation method in the embodiment.

く第2実施例〉 第7図は第2実施例に係るニューラルネットワークの構
成を示すブロック図である。前述の第1実施例では、第
1図に示すように、文字画像信号Eの出力に関係するニ
ューラル素子は入力層では25個、中間層では9個であ
った。この第2実施例では1文字画像信号Eの出力に関
係するニューラル素子は、入力層、出力層共に9素子で
あり、特に入力層の9素子は注目画素とそれに隣接する
画素の9画素のみ対応している。このために、文字画像
からの二値画像を多値画像に復元する処理に最も適した
結合定数を、周囲の画素の“1”“O”の影響を全く受
けずに学習することができる。
Second Embodiment FIG. 7 is a block diagram showing the configuration of a neural network according to a second embodiment. In the first embodiment described above, as shown in FIG. 1, the number of neural elements related to the output of the character image signal E was 25 in the input layer and 9 in the intermediate layer. In this second embodiment, the number of neural elements related to the output of the single character image signal E is nine in both the input layer and the output layer, and in particular, the nine elements in the input layer correspond only to the pixel of interest and the nine pixels adjacent to it. are doing. For this reason, it is possible to learn the coupling constant most suitable for the process of restoring a binary image from a character image into a multivalued image without being affected by the "1" and "O" of surrounding pixels.

この第2実施例の装置の構成は第1実施例のそれ(第3
図)を援用することが可能である。また、学習のための
制御手順も、第1実施例のそれ(第6A図、第6B図)
を援用することが可能である。また、学習の手法も第1
実施例のそれを援用することが可能である。また、学習
のためのデータ作成も、第1実施例のそれ(第4図)を
援用することが可能である。
The configuration of the device of this second embodiment is that of the first embodiment (third embodiment).
Figure) can be used. Furthermore, the control procedure for learning is the same as that of the first embodiment (Figures 6A and 6B).
It is possible to use Also, the learning method is the first
It is possible to refer to the examples. Furthermore, the data of the first embodiment (FIG. 4) can also be used to create data for learning.

第8A図、第8B図は第1実施例の第5A図。8A and 8B are FIG. 5A of the first embodiment.

第5B図に対応するものである。This corresponds to FIG. 5B.

〈変形〉 本発明はその主旨を逸脱しない範囲で種々の変形が可能
である。
<Modifications> The present invention can be modified in various ways without departing from the spirit thereof.

以上述べた2つの実施例では、ブロックの大きさを5×
5でもって説明したが、本発明はこれに限定されない。
In the two embodiments described above, the block size is 5×
5, the present invention is not limited thereto.

また、これらの実施例では、例えば中間層の内3X3=
9の素子が、全ての出力層の素子と出力を共有したが、
この数については9である必要はない。
In addition, in these embodiments, for example, 3×3=
9 elements share output with all output layer elements, but
This number does not need to be 9.

又、ニューラルネットワークの入力層と中間層の素子数
が一致する必要もないし、その数が25であるという制
限も特にない。
Furthermore, it is not necessary that the number of elements in the input layer and the intermediate layer of the neural network match, and there is no particular restriction that the number be 25.

又、実施例では中間層が1層のみであるが、この数につ
いても2層、3層・・・と自由に設定しても構わない。
Further, in the embodiment, there is only one intermediate layer, but this number may be freely set to two, three, etc.

また、上述の実施例では二値から多値の復元について説
明したが、本発明はこれに限定されず、多値から二値へ
の変換処理にも極めて容易に適用できる。
Further, although the above-described embodiment describes restoration from binary to multi-value, the present invention is not limited thereto, and can be applied very easily to conversion processing from multi-value to binary.

[発明の効果] 以上説明したように、本発明の画像処理方式は、入力層
、少なくとも1つの中間層、出力層とからなるニューラ
ルネットワークを用い、前記入力層に画像データを入力
し、このネットワーク内で所定の画像処理を行ない、前
記出力層から処理された画像データを出力する画像処理
方式であって、出力層の一部のニューラル素子は中間層
の一部のニューラル素子のみと結合しているようになっ
ている。
[Effects of the Invention] As explained above, the image processing method of the present invention uses a neural network consisting of an input layer, at least one intermediate layer, and an output layer, inputs image data to the input layer, and processes this network. An image processing method that performs predetermined image processing in the output layer and outputs the processed image data from the output layer, in which some neural elements in the output layer are connected only to some neural elements in the intermediate layer. It seems like there are.

画像をブロック処理する場合には、その画質に応じて、
ブロック処理の適用領域は変更されるべきであるところ
、本発明の画像処理方式では、ある画質の画像を出力す
るように与、えられた出力層のニューラル素子は、上記
適当な大きさのブロックに適合する中間層の一部のニュ
ーラル素子とのみ結合しているので、画像処理の質の向
上、学習精度の向上が図れる。
When performing block processing on images, depending on the image quality,
Although the application area of block processing should be changed, in the image processing method of the present invention, the neural elements of the output layer given to output an image of a certain quality are Since it is connected only to some neural elements in the intermediate layer that are compatible with the above, the quality of image processing and learning accuracy can be improved.

また、副次的な効果として、異なる性質を持つ最終出力
を得るために複数のニューラルネットワークを用いたり
する必要がな(、回路規模が低減できる。
Additionally, as a side effect, there is no need to use multiple neural networks to obtain final outputs with different properties (and the circuit size can be reduced).

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は第1実施例に用いられるニューラルネットワー
クの構成を示す図、 第2図は、入力画像が二値画像である場合と中間調画像
である場合との夫々において、ニエーラル結合定数を学
習するときの参照されるべき画素の範囲を示す図、 第3図は本発明を適用した第1.第2実施例の画像処理
装置の構成を示す図、 第4図は第1.第2実施例におけるニューラルネットワ
ークのための学習用データを作成するときのシステム図
、 第5A図、第5B図は、第1実施例の第2の学習方法に
おける2つのステップI、IIを説明する図、 第6A図、第6B図は第1.第2実施例の学習のための
制御手順のフローチャート、 第7図は第2実施例に用いられるニューラルネットワー
クの構成を示す図、 第8A図、第8B図は第2実施例の第2の学習方法に−
おける2つのステップI、IIを説明する図である。 図中、 100・・・ラインメモリ、101・・・ブロック切り
出し回路、102・・・ニューラルネットワーク、10
3・・・セレクタである。 特許出願人 キャノン株式会社− 代理人 弁理士  大塚康徳 (化1名)人力1 cP閾1 第 ? 図 ポカ層
Figure 1 is a diagram showing the configuration of the neural network used in the first embodiment, and Figure 2 shows neural coupling constants learned when the input image is a binary image and when it is a halftone image. FIG. 3 is a diagram showing the range of pixels to be referred to when the present invention is applied. FIG. 4 is a diagram showing the configuration of the image processing apparatus of the second embodiment. A system diagram when creating learning data for a neural network in the second embodiment, FIGS. 5A and 5B explain two steps I and II in the second learning method of the first embodiment. Figures 6A and 6B are 1. A flowchart of the control procedure for learning in the second embodiment. Figure 7 is a diagram showing the configuration of the neural network used in the second embodiment. Figures 8A and 8B are the second learning of the second embodiment. How-
FIG. 2 is a diagram illustrating two steps I and II in FIG. In the figure, 100...line memory, 101...block extraction circuit, 102...neural network, 10
3...Selector. Patent applicant: Canon Co., Ltd. - Agent: Patent attorney: Yasunori Otsuka (1 person) Manpower: 1 cP threshold: 1st? figure poka layer

Claims (12)

【特許請求の範囲】[Claims] (1) 入力層、少なくとも1つの中間層、出力層とか
らなるニユーラルネツトワークを用い、前記入力層に画
像データを入力し、このネツトワーク内で所定の画像処
理を行ない、前記出力層から処理された画像データを出
力する画像処理方式であって、 出力層の一部のニューラル素子は中間層の一部のニュー
ラル素子のみと結合していることを特徴とするニューラ
ルネツトワークを用いた画像処理方式。
(1) Using a neural network consisting of an input layer, at least one intermediate layer, and an output layer, image data is input to the input layer, predetermined image processing is performed within this network, and data is output from the output layer. An image processing method that outputs processed image data using a neural network characterized in that some neural elements in an output layer are connected only to some neural elements in an intermediate layer. Processing method.
(2) 前記入力の画像データは画質の異なる画像を混
在し、前記出力層の複数のニューラル素子は夫々、画質
の異なる出力画像データを同時に出力する事を特徴とす
る請求項の第1項に記載のニューラルネツトワークを用
いた画像処理方式。
(2) The input image data includes a mixture of images of different image quality, and each of the plurality of neural elements of the output layer simultaneously outputs output image data of different image quality. Image processing method using the described neural network.
(3) 前記出力層の複数のニューラル素子は、夫々、
中間調画像信号、エツジ部又は文字部画像信号及び領域
分離信号である事を特徴とする請求項の第2項に記載の
ニューラルネツトワークを用いた画像処理方式。
(3) Each of the plurality of neural elements of the output layer has:
3. The image processing method using a neural network according to claim 2, wherein the image processing method is a halftone image signal, an edge portion or character portion image signal, and a region separation signal.
(4) 前記中間層の一部のニューラル素子は、前記入
力層の全部のニューラル素子と結合している事を特徴と
する請求項の第1項に記載のニューラルネツトワークを
用いた画像処理方式。
(4) The image processing method using a neural network according to claim 1, wherein some neural elements in the intermediate layer are connected to all neural elements in the input layer. .
(5) 前記中間層の一部のニューラル素子は、前記入
力層の一部のニューラル素子のみと結合している事を特
徴とする請求項の第1項に記載のニューラルネツトワー
クを用いた画像処理方式。
(5) An image using a neural network according to claim 1, wherein some of the neural elements of the intermediate layer are connected only to some of the neural elements of the input layer. Processing method.
(6) 前記ネツトワークの学習に際し、出力層の一部
のニューラル素子とこのニューラル素子と結合している
前記中間層の一部のニューラル素子との間の結合定数を
先に学習して決定し、残りの結合定数については、前記
先に決定した結合定数を固定しつつ再学習して決定する
事を特徴とする請求項の第2項に記載のニューラルネツ
トワークを用いた画像処理方式。
(6) When learning the network, first learn and determine a coupling constant between some neural elements in the output layer and some neural elements in the intermediate layer that are connected to this neural element. . The image processing method using a neural network according to claim 2, wherein the remaining coupling constants are determined by re-learning while fixing the previously determined coupling constants.
(7) 一部のニューラル素子の結合定数を先に決定す
るに際し、前記ネツトワークに与える理想信号として、
前記画質の異なる画像のうちの局所性の強い方の画像を
用いる事を特徴とする請求項の第3項または第4項に記
載のニューラルネツトワークを用いた画像処理方式。
(7) When first determining the coupling constants of some neural elements, as an ideal signal to be given to the network,
5. The image processing method using a neural network according to claim 3, wherein an image having a stronger locality among the images of different image quality is used.
(8) 前記局所性の強い方の画像は文字画像等のエッ
ジ性の強い画像である事を特徴とする請求項の第7項に
記載のニューラルネツトワークを用いた画像処理方式。
(8) The image processing method using a neural network according to claim 7, wherein the image with stronger locality is an image with stronger edge characteristics, such as a character image.
(9) 再学習に際して決定される結合定数は、前記中
間層の一部のニューラル素子以外のニューラル素子と、
前記出力層の一部のニューラル素子以外の出力層のニュ
ーラル素子間の結合定数である事を特徴とする請求項の
第4項に記載のニューラルネツトワークを用いた画像処
理方式。
(9) The coupling constant determined during relearning is for neural elements other than some of the neural elements in the intermediate layer;
5. The image processing method using a neural network according to claim 4, wherein the coupling constant is a coupling constant between neural elements of the output layer other than some of the neural elements of the output layer.
(10) 再学習に際して決定される結合定数は、前記
中間層の一部のニューラル素子以外のニューラル素子と
、前記出力層の一部のニューラル素子以外の出力層のニ
ューラル素子並びに前記入力層の一部のニューラル素子
以外のニューラル素子との間の結合定数である事を特徴
とする請求項の第1項に記載のニューラルネツトワーク
を用いた画像処理方式。
(10) The coupling constant determined during relearning is for neural elements other than some neural elements in the intermediate layer, neural elements in the output layer other than some neural elements in the output layer, and one neural element in the input layer. 2. The image processing method using a neural network according to claim 1, wherein the coupling constant is a coupling constant between a neural element other than the neural element of the neural network.
(11) 前記出力層のニューラル素子からの中間調画
像信号と文字部画像信号とを、同じく前記出力層のニュ
ーラル素子からの領域分離信号により切換えて最終画像
信号を得る事を特徴とする請求項の第3項に記載のニュ
ーラルネツトワークを用いた画像処理方式。
(11) A final image signal is obtained by switching between a halftone image signal and a text image signal from a neural element in the output layer using a region separation signal from a neural element in the output layer. An image processing method using the neural network described in Section 3 of
(12) 入力層、少なくとも1つの中間層、出力層と
からなるニユーラルネツトワークを用い、前記入力層に
局所性の強い画質と弱い画質を含む画像をブロツクに分
割して入力し、このネツトワーク内でこのブロツク画像
に対して所定の画像処理を行なって、前記出力層から処
理された画像データを出力する画像処理方式であって、 前記出力層のニューラル素子は前記画質毎に設けられ、 前記局所性の強い画質のための出力層ニューラル素子は
、前記入力層の一部のニューラル素子と中間層の一部の
ニューラル素子との間でのみ結合されると共に、 前記入力層の一部のニューラル素子には、前記ブロツク
画像のうちの、一部の画像データが入力されることを特
徴とするニューラルネツトワークを用いた画像処理方式
(12) Using a neural network consisting of an input layer, at least one intermediate layer, and an output layer, input an image containing strong and weak local image quality into blocks to the input layer, and An image processing method that performs predetermined image processing on this block image within a work and outputs the processed image data from the output layer, wherein neural elements of the output layer are provided for each of the image qualities, The output layer neural elements for image quality with strong locality are coupled only between some neural elements of the input layer and some neural elements of the intermediate layer, and are connected only between some neural elements of the input layer and some neural elements of the intermediate layer. An image processing method using a neural network, characterized in that part of the image data of the block image is input to the neural element.
JP2153938A 1990-06-14 1990-06-14 Picture processing system using neural network Pending JPH0447474A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2153938A JPH0447474A (en) 1990-06-14 1990-06-14 Picture processing system using neural network
EP91305363A EP0461902B1 (en) 1990-06-14 1991-06-13 Neural network
DE69130656T DE69130656T2 (en) 1990-06-14 1991-06-13 Neural networks
US08/026,093 US5719955A (en) 1990-06-14 1993-03-04 Data processing using neural networks having conversion tables in an intermediate layer
US08/969,832 US6243490B1 (en) 1990-06-14 1997-11-13 Data processing using neural networks having conversion tables in an intermediate layer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2153938A JPH0447474A (en) 1990-06-14 1990-06-14 Picture processing system using neural network

Publications (1)

Publication Number Publication Date
JPH0447474A true JPH0447474A (en) 1992-02-17

Family

ID=15573364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2153938A Pending JPH0447474A (en) 1990-06-14 1990-06-14 Picture processing system using neural network

Country Status (1)

Country Link
JP (1) JPH0447474A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013037488A (en) * 2011-08-05 2013-02-21 Mega Chips Corp Image recognition device
JP2017059090A (en) * 2015-09-18 2017-03-23 ヤフー株式会社 Generation device, generation method, and generation program
JP2017134853A (en) * 2017-03-16 2017-08-03 ヤフー株式会社 Generation device, generation method, and generation program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013037488A (en) * 2011-08-05 2013-02-21 Mega Chips Corp Image recognition device
JP2017059090A (en) * 2015-09-18 2017-03-23 ヤフー株式会社 Generation device, generation method, and generation program
JP2017134853A (en) * 2017-03-16 2017-08-03 ヤフー株式会社 Generation device, generation method, and generation program

Similar Documents

Publication Publication Date Title
US5832132A (en) Image processing using neural network
JP3184092B2 (en) Image processing method
EP0461903A2 (en) Image processing apparatus using neural network
GB2242593A (en) Method of discriminating character and halftone image areas
JPH04227590A (en) Image processing apparatus
US5041916A (en) Color image data compression and recovery apparatus based on neural networks
JP3119371B2 (en) Image processing method
JP4517409B2 (en) Data processing apparatus and data processing method
JPH06348840A (en) Picture restoring method
US6301381B1 (en) Neurofilter, and method of training same to operate on image data such as to discriminate between text and picture regions of an image which is expressed by image data
US5748329A (en) Method and apparatus for adaptive color scanning/printing data correction employing neural networks
JPH0981723A (en) Image processor
JPH0447474A (en) Picture processing system using neural network
JPH0451384A (en) Neural network and its construction method
JP2859377B2 (en) Image processing method and image processing apparatus using neural network
JPH0447470A (en) Picture processing system using neural net and picture processing device using the system
JPH07121695A (en) Image gradation conversion method and image processing device
JPH0620048A (en) Image processor
JPH0447472A (en) Picture processing system using neural network
JPH0451375A (en) Picture processor
JPH0415882A (en) Picture quality evaluation device
JPH0451374A (en) Picture processor
JP2891505B2 (en) Halftone image restoration method
JPS63312150A (en) Binary circuit for contrast image
JPH0447475A (en) Picture processing system using neural network