JPH10283460A - Image processor - Google Patents

Image processor

Info

Publication number
JPH10283460A
JPH10283460A JP9086162A JP8616297A JPH10283460A JP H10283460 A JPH10283460 A JP H10283460A JP 9086162 A JP9086162 A JP 9086162A JP 8616297 A JP8616297 A JP 8616297A JP H10283460 A JPH10283460 A JP H10283460A
Authority
JP
Japan
Prior art keywords
image processing
image
data
input
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9086162A
Other languages
Japanese (ja)
Inventor
Junji Nishigaki
順二 西垣
Junji Ishikawa
淳史 石川
Hiroshi Sugiura
博 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP9086162A priority Critical patent/JPH10283460A/en
Publication of JPH10283460A publication Critical patent/JPH10283460A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily obtain a desired image quality by extracting the characteristic amount of image data to be inputted and selecting an appropriate processing part that corresponds to the characteristic amount among plural kinds of processing parts. SOLUTION: An image processing unit 115 consists of an A/D converting part 31, a characteristic amount extracting part 32 which operates as a characteristic amount extracting means, an image processing selecting part 33 which works as an image processing selecting means, a learning part 34 which serves as a learning means and an image processing part 35. When an operator sets an original that is wanted to copy by him on an image reader, a characteristic amount DH is extracted from image data D1 that is acquired by reading the original. Selection data DS is outputted from the part 33 in accordance with the amount DH, and an appropriate processing part is selected from the part 35 according to the data DS. The data D1 is processed through a selected processing part and outputted as image data DO. Printing is performed on paper based on the outputted data DO.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、入力される画像デ
ータの特徴に応じた内容の画像処理を行って出力する画
像処理装置に関する。本発明の特徴は、画像データの特
徴量をニューラルネットワークへの入力パラメータと
し、予め準備された複数の画像処理手段(画像パラメー
タ)の中から最適のものをニューラルネットワークから
出力される選択データによって選択する点にある。本発
明の画像処理装置は、例えばデジタル複写機において、
原稿を読み取ることにより入力された画像データに対し
て画質のシャープさなどを制御する画質補正のために利
用される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for performing image processing of contents corresponding to characteristics of input image data and outputting the processed image data. A feature of the present invention is that a feature amount of image data is used as an input parameter to a neural network, and an optimal one is selected from a plurality of image processing means (image parameters) prepared in advance by selection data output from the neural network. Is to do. The image processing apparatus of the present invention, for example, in a digital copying machine,
It is used for image quality correction for controlling sharpness of image quality for image data input by reading a document.

【0002】[0002]

【従来の技術】従来より、画像処理にしばしばニューラ
ルネットワークが用いられている。例えば特開平6−3
0253号公報には、入力された画像データをニューラ
ルネットワークの入力層に入力し、ニューラルネットワ
ークによって画像処理を行い、処理後の画像データを出
力層から出力する装置が提案されている。
2. Description of the Related Art Conventionally, neural networks are often used for image processing. For example, JP-A-6-3
Japanese Patent Application Publication No. 0253 proposes a device for inputting input image data to an input layer of a neural network, performing image processing by the neural network, and outputting the processed image data from an output layer.

【0003】また、画像データの特徴量をニューラルネ
ットワークに入力し、ニューラルネットワークによって
特徴量に応じた変換パラメータを求め、求められた変換
パラメータを用いて画像処理を行うことも提案されてい
る。
It has also been proposed to input a feature amount of image data to a neural network, obtain a conversion parameter corresponding to the feature amount by the neural network, and perform image processing using the obtained conversion parameter.

【0004】これらのいずれにおいても、ニューラルネ
ットワーク自体によって画像処理を行っており、処理後
の画像データがニューラルネットワークから出力され
る。
[0004] In each of these, image processing is performed by the neural network itself, and the processed image data is output from the neural network.

【0005】[0005]

【発明が解決しようとする課題】上述した従来の画像処
理装置では、画像処理そのものをニューラルネットワー
クで行っているので、ニューラルネットワークの各層の
数、特に出力層の数を多くする必要があり、ニューラル
ネットワークの回路規模が膨大となるとともに、その学
習のために膨大な時間を要することとなる。
In the above-mentioned conventional image processing apparatus, since the image processing itself is performed by a neural network, it is necessary to increase the number of each layer of the neural network, especially the number of output layers. As the circuit scale of the network becomes enormous, enormous time is required for learning.

【0006】例えば、256階調の画像データを処理す
る場合には、出力層に少なくともその5分の1程度の個
数のニューロンが必要であり、高精度な処理を行うため
には256個のニューロンが必要である。このようなニ
ューラルネットワークは回路規模及び学習時間が膨大で
ある。
For example, when processing image data of 256 tones, at least about one fifth of the number of neurons is required in the output layer, and 256 neurons are required to perform high-precision processing. is required. Such a neural network has a huge circuit scale and a large learning time.

【0007】そして、画像処理を学習後のニューラルネ
ットワークで行っているので、原稿によっては通常あり
得ない画像処理を行ってしまう可能性がある。つまり、
学習のための教師データが適切でなかったり学習が充分
でなかった場合には、入力される画像データによっては
ニューラルネットワークが通常では考えられない異常な
内容の画像処理を実行する可能性がある。
[0007] Since image processing is performed by a neural network after learning, there is a possibility that image processing that cannot be normally performed depending on a document may be performed. That is,
If teacher data for learning is not appropriate or learning is not sufficient, there is a possibility that the neural network will execute image processing with abnormal contents that cannot be considered normally depending on input image data.

【0008】また、ニューラルネットワークを用いるこ
となく、画像データに含まれる特徴量によって、予め設
定された複数の画像処理手段の中から適切なものを選択
することが考えられる。この場合において、どのように
して適切なものを選択するかが問題である。
Further, it is conceivable to select an appropriate one from a plurality of image processing means set in advance according to a feature amount included in image data without using a neural network. In this case, the problem is how to select an appropriate one.

【0009】つまり、画像処理手段を選択する場合に、
例えば複写機で複写される種々の原稿に対して、画像の
種類を正確に判別するようにしきい値などのパラメータ
を設定することが重要となる。このようなしきい値など
のパラメータは、計算上求められるものもあるが、実際
には何種類かの原稿を用いて経験的に求められることが
多い。そのため、求められたしきい値では、実際に用い
られる原稿に対する適切な画像処理を選択することがで
きない可能性がある。そのため、ある限られた原稿の画
像データに対しては適切な画像処理手段を選択するかも
しれないが、別の画像データに対しては適切でないもの
を選択する可能性がある。つまり、複写機で複写される
原稿のように汎用的な画像データに対しては利用できな
い可能性がある。また、パラメータを設定するために
は、画像特性及び画像処理についての専門的知識が必要
であり、専門的知識を有しないユーザではパラメータの
設定ができないという問題がある。
That is, when selecting the image processing means,
For example, it is important to set parameters such as threshold values for various originals copied by a copying machine so as to accurately determine the type of image. Some parameters such as the threshold value can be calculated, but in practice, they are often obtained empirically using several types of documents. Therefore, it may not be possible to select an appropriate image processing for the document actually used with the obtained threshold value. Therefore, an appropriate image processing means may be selected for image data of a limited document, but an inappropriate image processing means may be selected for another image data. That is, there is a possibility that general-purpose image data such as a document copied by a copying machine cannot be used. In addition, in order to set the parameters, specialized knowledge about image characteristics and image processing is required, and there is a problem that a user without specialized knowledge cannot set parameters.

【0010】本発明は、上述の問題に鑑みてなされたも
ので、比較的小規模のニューラルネットワークを用い、
学習に要する時間を低減することができ、汎用的な原稿
に対して異常な画像処理手段(画像パラメータ)を生成
することがなく、予め準備された複数の画像処理手段の
中から適切なものを選択することによって容易に所望の
画像品質を得ることのできる画像処理装置を提供するこ
とを目的とする。
The present invention has been made in view of the above problems, and uses a relatively small-scale neural network.
It is possible to reduce the time required for learning, without generating abnormal image processing means (image parameters) for a general-purpose document, and selecting an appropriate one from a plurality of prepared image processing means. It is an object of the present invention to provide an image processing apparatus capable of easily obtaining a desired image quality by selecting the image processing apparatus.

【0011】[0011]

【課題を解決するための手段】請求項1の発明に係る装
置は、入力される画像データに対し、当該画像データの
特徴に応じた内容の画像処理を行って出力する画像処理
装置であって、画像処理の内容の異なる複数種類の画像
処理手段を有する画像処理部と、入力される前記画像デ
ータの特徴量を抽出する特徴量抽出手段と、前記複数種
類の画像処理手段の中から前記特徴量に対応した適切な
画像処理手段を選択するニューラルネットワークと、を
有して構成される。
According to a first aspect of the present invention, there is provided an image processing apparatus for performing, on input image data, image processing of contents corresponding to characteristics of the image data, and outputting the processed image data. An image processing unit having a plurality of types of image processing units having different image processing contents; a feature amount extracting unit for extracting a feature amount of the input image data; And a neural network for selecting an appropriate image processing means corresponding to the quantity.

【0012】請求項2の発明に係る装置は、画像処理の
内容の異なる複数種類の画像処理手段を有する画像処理
部と、入力される前記画像データの特徴量を抽出する特
徴量抽出手段と、入力層に特徴量を入力し、入力された
特徴量に対応する画像処理手段を選択する選択データを
出力層から出力するように学習させたニューラルネット
ワークと、前記ニューラルネットワークによって、前記
複数種類の画像処理手段の中から前記特徴量抽出手段に
より抽出された特徴量に対応した適切な画像処理手段を
選択する画像処理選択手段と、を有して構成される。
According to a second aspect of the present invention, there is provided an image processing section having a plurality of types of image processing means having different image processing contents, a feature amount extracting means for extracting a feature amount of the input image data, A neural network that is input with a feature amount to the input layer and is trained to output selection data for selecting an image processing unit corresponding to the input feature amount from an output layer; and the plurality of types of images by the neural network. Image processing selecting means for selecting an appropriate image processing means corresponding to the feature value extracted by the feature value extracting means from the processing means.

【0013】請求項3の発明に係る装置は、画像処理の
内容の異なる複数種類の画像処理手段を有する画像処理
部と、入力される前記画像データの特徴量を抽出する特
徴量抽出手段と、前記特徴量抽出手段により抽出された
特徴量が入力層に入力され、前記複数種類の画像処理手
段の中から1つの画像処理手段を選択する選択データを
出力層から出力するニューラルネットワークと、前記入
力層に特徴量を入力し、入力された特徴量に対応する適
切な画像処理手段を選択する選択データを前記出力層か
ら出力するように前記ニューラルネットワークを学習さ
せるための学習手段と、を有して構成される。
According to a third aspect of the present invention, there is provided an image processing section having a plurality of types of image processing means having different image processing contents, a feature amount extracting means for extracting a feature amount of the input image data, A feature amount extracted by the feature amount extraction means is input to an input layer, and a neural network which outputs selection data for selecting one image processing means from the plurality of types of image processing means from an output layer; Learning means for inputting a feature value to a layer and learning the neural network so as to output selection data for selecting an appropriate image processing means corresponding to the input feature value from the output layer. It is composed.

【0014】請求項4の発明に係る装置は、前記複数種
類の画像処理手段に中に、入力される画像データの濃度
値に対応した濃度値の画像データを出力する画像パラメ
ータを含んで構成される。
According to a fourth aspect of the present invention, there is provided an apparatus wherein the plurality of types of image processing means include image parameters for outputting image data of density values corresponding to the density values of input image data. You.

【0015】本発明の画像処理装置では、例えば図5に
示すような種々の入出力特性を有した画像処理手段(処
理部)が予め準備される。画像データから抽出された特
徴量はニューラルネットワークに入力され、ニューラル
ネットワークの出力層からは適切な画像処理手段を選択
するための選択データが出力される。
In the image processing apparatus of the present invention, for example, image processing means (processing section) having various input / output characteristics as shown in FIG. 5 is prepared in advance. The feature amount extracted from the image data is input to the neural network, and selection data for selecting an appropriate image processing means is output from the output layer of the neural network.

【0016】つまり、画像処理自体は予め準備された画
像処理手段によって実行される。ニューラルネットワー
クは、いずれかの画像処理手段を選択するために用いら
れる。
That is, the image processing itself is executed by image processing means prepared in advance. The neural network is used to select any image processing means.

【0017】ニューラルネットワークが適切な画像処理
手段を選択するようにするために、教師データを用いて
種々の方法による学習が行われる。そのような学習は、
予め行っておくことも可能であり、画像処理装置を実際
に使用する際に行うことも可能である。なお、特徴量に
は画像データ自体も含まれる。つまり画像データ自体を
ニューラルネットワークに入力してもよい。
In order for the neural network to select an appropriate image processing means, learning is performed by various methods using teacher data. Such learning is
This can be performed in advance, or can be performed when the image processing apparatus is actually used. Note that the feature amount includes the image data itself. That is, the image data itself may be input to the neural network.

【0018】[0018]

【発明の実施の形態】図1は本発明に係る画像処理ユニ
ット115が設けられたデジタル式の複写機1の概略の
構成を示す図である。
FIG. 1 is a diagram showing a schematic configuration of a digital copying machine 1 provided with an image processing unit 115 according to the present invention.

【0019】複写機1は、その上部に設置された画像読
み取り装置11、及び下部に配置された画像記録装置1
2から構成されている。画像読み取り装置11において
は、縮小光学系を用いて、光源111から原稿に光を照
射し、その反射光をミラー112及びレンズ113を介
してライン状のCCD114上に結像させ、光電変換さ
れたアナログの電気信号S1を得る。本実施形態におい
ては、CCD114の解像度は400dpiであり、最
大原稿サイズはA3サイズ(1ライン約5000do
t)である。
The copying machine 1 has an image reading device 11 installed at an upper part thereof, and an image recording device 1 installed at a lower part thereof.
2 is comprised. In the image reading device 11, the original is irradiated with light from the light source 111 using the reduction optical system, and the reflected light is imaged on the linear CCD 114 via the mirror 112 and the lens 113, and the image is photoelectrically converted. An analog electric signal S1 is obtained. In the present embodiment, the resolution of the CCD 114 is 400 dpi, and the maximum document size is A3 size (about 5000 dots per line).
t).

【0020】CCD114から出力される電気信号S1
は、本発明の画像処理装置としての画像処理ユニット1
15に入力され、画像処理ユニット115において、操
作部116からの指示データDCの内容にしたがって、
デジタルの画像データD1に変換され、変倍及び画質補
正などの画像処理が行われ、デジタルの画像データDO
として画像読み取り装置11から出力される。
The electric signal S1 output from the CCD 114
Is an image processing unit 1 as an image processing apparatus of the present invention.
15 in the image processing unit 115 according to the contents of the instruction data DC from the operation unit 116.
The image data is converted into digital image data D1 and subjected to image processing such as scaling and image quality correction.
Is output from the image reading device 11.

【0021】原稿は、CCD114によって主走査方向
に走査され、ミラー112の水平方向への移動によって
副走査方向に走査される。したがって、電気信号S1
は、主走査の1ライン毎に、CCD114から順次転送
されて出力される。
The original is scanned in the main scanning direction by the CCD 114, and is scanned in the sub-scanning direction by moving the mirror 112 in the horizontal direction. Therefore, the electric signal S1
Are sequentially transferred and output from the CCD 114 for each line of the main scanning.

【0022】画像記録装置12においては、画像読み取
り装置11から出力された画像データDOをレーザーダ
イオード駆動ユニット121でアナログの電気信号S2
に変換し、レーザー発光源であるレーザダイオード12
2でレーザ光に変換し、レーザ光をポリゴンミラー12
3を介して感光体ドラム124の表面に結像させる。つ
まり、レーザダイオード122に入力される電流を画素
単位で制御してその光量を制御し、これによって感光体
ドラム124の表面に付着するトナーの量を制御し、電
子写真方式によって400dpi、256階調の画像を
用紙PP上に再現する。
In the image recording device 12, the image data DO output from the image reading device 11 is converted into an analog electric signal S2 by a laser diode driving unit 121.
Into a laser diode 12 which is a laser emission source.
2. The laser light is converted to laser light by the
3 to form an image on the surface of the photosensitive drum 124. In other words, the current input to the laser diode 122 is controlled in pixel units to control the amount of light, thereby controlling the amount of toner adhering to the surface of the photoconductor drum 124. Is reproduced on the paper PP.

【0023】図2は画像処理ユニット115の全体の構
成を示すブロック図である。画像処理ユニット115
は、A/D変換部31、本発明における特徴量抽出手段
としての特徴量抽出部32、画像処理選択手段としての
画像処理選択部33、学習手段としての学習部34、及
び画像処理部35から構成されている。
FIG. 2 is a block diagram showing the overall configuration of the image processing unit 115. Image processing unit 115
Are transmitted from an A / D conversion unit 31, a feature amount extraction unit 32 as a feature amount extraction unit in the present invention, an image processing selection unit 33 as an image processing selection unit, a learning unit 34 as a learning unit, and an image processing unit 35. It is configured.

【0024】A/D変換部31は、CCD114から出
力された電気信号S1を、8bit(256階調)のデ
ジタル画像データD1(V7−0)に変換する。特徴量
抽出部32は、入力される画像データD1に基づいて、
その画像の特性を表わす特徴量DHを抽出する。特徴量
抽出部32は、一種類の画像データD1について複数種
類の特徴量DHを抽出することがある。特徴量として
は、例えば、エッジ情報、孤立点情報、ヒストグラム情
報などがあり、これらについては後述する。なお、特徴
量DHとして、画像データD1自体であってもよい。
The A / D converter 31 converts the electric signal S1 output from the CCD 114 into 8-bit (256 gradations) digital image data D1 (V7-0). The feature amount extraction unit 32 is configured to output the image data D1
A feature value DH representing the characteristics of the image is extracted. The feature amount extraction unit 32 may extract a plurality of types of feature amounts DH for one type of image data D1. The feature amount includes, for example, edge information, isolated point information, histogram information, and the like, which will be described later. Note that the image data D1 itself may be used as the feature value DH.

【0025】なお、画像の特性の例として、その画像が
文字画像であること、写真画像(濃淡画像)であるこ
と、又は網点画像であることなどである。つまり、これ
らの場合には、特徴量DHに基づいて、文字画像、写真
画像、又は網点画像など、それぞれの画像の種類に対応
して最適の処理が行われることになる。
Examples of the characteristics of an image include that the image is a character image, a photographic image (shade image), or a halftone image. That is, in these cases, based on the feature amount DH, optimal processing is performed corresponding to each type of image such as a character image, a photographic image, or a halftone image.

【0026】画像処理選択部33は、特徴量DHに基づ
いて、その画像データD1の画像処理に最適の処理を選
択するための選択データDSを出力する。つまり、画像
データD1に対する画像処理自体は画像処理部35によ
って行われるが、画像処理部35において行われる処理
の内容を選択するための選択データDSを画像処理選択
部33が出力する。画像処理選択部33は、ニューラル
ネットワークによって構成されている。
The image processing selecting section 33 outputs selection data DS for selecting an optimum processing for the image processing of the image data D1 based on the characteristic amount DH. That is, the image processing itself on the image data D1 is performed by the image processing unit 35, but the image processing selection unit 33 outputs selection data DS for selecting the content of the processing performed in the image processing unit 35. The image processing selection unit 33 is configured by a neural network.

【0027】学習部34は、画像処理選択部33のニュ
ーラルネットワークを学習させるためのものである。つ
まり、学習部34は、画像処理選択部33から出力され
る選択データDSを入力し、選択データDSと目標値と
の誤差を演算し、誤差が小さくなるような結合係数W
i,jを画像処理選択部33に与え、これを何回も繰り
返すことによって、選択データDSが目標値に近づくよ
うに画像処理選択部33を学習させる。
The learning section 34 is for learning the neural network of the image processing selecting section 33. That is, the learning unit 34 receives the selection data DS output from the image processing selection unit 33, calculates an error between the selection data DS and the target value, and calculates a coupling coefficient W that reduces the error.
i and j are given to the image processing selection unit 33, and by repeating this many times, the image processing selection unit 33 is trained so that the selection data DS approaches the target value.

【0028】画像処理部35は、本発明の画像処理手段
としての多数の処理部351,352…、35Mを有し
ている。それぞれの処理部351,352…、35M
は、入力される画像データD1に対して、内容の異なる
種々の処理1、処理2、…処理Mを実行し、処理結果で
ある画像データDO(DV7−0)を出力する。処理の
内容としては、例えば、シェーディング補正処理、LO
G補正処理、濃度変換処理、変倍・移動制御処理、MT
F補正処理、濃度補正処理(ガンマ補正処理)、及びこ
れらを組み合わせた処理などがある。また、それぞれの
処理において、変換係数、変換率、又は補正係数のみが
異なる複数の処理である場合もある。それらの処理の概
要を次に説明する。
The image processing section 35 has a number of processing sections 351, 352,..., 35M as image processing means of the present invention. Each of the processing units 351, 352,..., 35M
Performs various processing 1, processing 2,... Processing M with different contents on input image data D1, and outputs image data DO (DV7-0) as a processing result. The processing includes, for example, shading correction processing, LO
G correction processing, density conversion processing, scaling / movement control processing, MT
There are F correction processing, density correction processing (gamma correction processing), and processing combining these. Further, in each of the processes, there may be a plurality of processes in which only the conversion coefficient, the conversion rate, or the correction coefficient is different. The outline of these processes will be described below.

【0029】シェーディング補正処理は、主走査方向の
光量ムラをなくすための処理であり、原稿の読み取り動
作に先立って、図示しないシェーディング補正用の白色
板を読み取って得た画像データD1を内部のシェーディ
ングメモリに基準データとして格納しておき、それを逆
数に変換した後、原稿を読み取って得た画像データD1
と乗算して補正された画像データD0を出力する。
The shading correction process is a process for eliminating unevenness in the amount of light in the main scanning direction. The image data D1 obtained by reading a white plate (not shown) for shading correction is read before shading. The image data D1 obtained by storing the reference data in the memory, converting it into a reciprocal, and reading the original document
And outputs corrected image data D0.

【0030】LOG補正処理は、電気信号S1の大きさ
が原稿の反射率すなわち輝度に比例するため、これを濃
度に比例したデータに変換するための処理である。LO
G補正処理においては、例えば、濃度=−LOG(明
度)の特性を有したテーブルを用いて変換を行う。ま
た、濃度変換処理として、オペレータの操作に応じた濃
度調整も行うため、操作部116からの指示データDC
にしたがってテーブルの内容を変更する。
The LOG correction process is a process for converting the electric signal S1 into data proportional to the density since the magnitude of the electric signal S1 is proportional to the reflectance, that is, the luminance of the document. LO
In the G correction process, for example, conversion is performed using a table having a characteristic of density = -LOG (brightness). In addition, since density adjustment according to the operation of the operator is also performed as the density conversion processing, the instruction data DC from the operation unit 116 is used.
Changes the contents of the table according to.

【0031】変倍・移動制御処理では、変倍用のライン
メモリを2個用いて1ライン毎に入出力を交互に行い、
その書き込みタイミング及び読み出しタイミングを独立
して制御することにより、主走査方向の変倍及び移動を
行う。この制御において、変倍率に応じて、縮小側では
書き込み前に、拡大側では読み出し後に、それぞれ補間
処理を行い、画像の欠損又は画像のガタツキを防止す
る。この制御によって、イメージリピート処理、拡大連
写処理、及び鏡像処理をも行う。副走査方向の変倍は、
ミラー112の移動速度を制御しCCD114による読
み取り速度を可変することにより行う。
In the scaling / movement control processing, input / output is alternately performed for each line using two line memories for scaling.
By independently controlling the writing timing and the reading timing, zooming and movement in the main scanning direction are performed. In this control, interpolation processing is performed before writing on the reduction side and after reading on the enlargement side, according to the scaling factor, to prevent image loss or image rattling. With this control, an image repeat process, an enlarged continuous shooting process, and a mirror image process are also performed. The magnification in the sub-scanning direction is
This is performed by controlling the moving speed of the mirror 112 and changing the reading speed of the CCD 114.

【0032】MTF補正処理は、画像のシャープさなど
を制御するための処理である。MTF補正処理として、
スムージング処理又はエッジ強調処理などを行う。濃度
補正処理では、画像記録装置12の特性に応じた濃度補
正(ガンマ補正)を行う。
The MTF correction process is a process for controlling the sharpness of an image and the like. As MTF correction processing,
Smoothing processing or edge enhancement processing is performed. In the density correction processing, density correction (gamma correction) according to the characteristics of the image recording device 12 is performed.

【0033】図3は学習部34の構成の例を示す図、図
4は画像処理選択部33の構成の例を示す図、図5は画
像処理部35の構成の例を概念的に示す図である。図3
において、学習部34は、目標値設定部341、誤差演
算部342、及び結合係数発生部343からなる。
FIG. 3 shows an example of the configuration of the learning section 34, FIG. 4 shows an example of the configuration of the image processing selection section 33, and FIG. 5 conceptually shows an example of the configuration of the image processing section 35. It is. FIG.
, The learning unit 34 includes a target value setting unit 341, an error calculation unit 342, and a coupling coefficient generation unit 343.

【0034】目標値設定部341は、操作部116から
の指示データDCに基づいて目標値DVを設定する。目
標値DVとして、画像処理部35内の処理部351,3
52…、35Mを選択するためのデータが設定される。
例えば、選択データDSが各処理部351,352…、
35Mに対応したビット列からなり、それぞれに対応す
るビットが「1」のときにその処理を選択し「0」のと
きに選択しないとした場合に、処理部351を選択する
場合の選択データDSは「100…0」となる。設定さ
れた目標値DVは、目標値設定部341内のレジスタに
格納される。なお、選択データDSは、処理部を選択す
ることの可能な程度のデータであればよく、その各ビッ
トの値は実際には「1」又は「0」に近い小数値となる
場合が多い。
The target value setting section 341 sets a target value DV based on the instruction data DC from the operation section 116. The processing units 351 and 3 in the image processing unit 35 are set as the target value DV.
.., 35M are set.
For example, when the selection data DS is the processing units 351, 352,.
If the bit sequence corresponding to 35M is selected and its processing is selected when the corresponding bit is “1” and not selected when the bit is “0”, the selection data DS for selecting the processing unit 351 is It becomes "100 ... 0". The set target value DV is stored in a register in the target value setting unit 341. The selection data DS only needs to be data that can select a processing unit, and the value of each bit is often a decimal value close to “1” or “0” in many cases.

【0035】オペレータは、画像処理選択部33を学習
させるに当たって、教師データとなる原稿を画像読み取
り装置11にセットするが、その原稿に対する最適の処
理が処理部351,352…、35Mの中から選択され
るように、つまりそのような選択データDSと一致する
目標値DVが設定されるように、指示データDCを入力
する。オペレータは、教師データとなる原稿に対応する
処理内容が分かっている場合には、その処理内容に相当
する処理部351,352…、35Mを選択するための
目標値DVを設定する。教師データとなる原稿に対し
て、処理部351,352…、35Mによる実際の処理
結果を見た上でオペレータが処理内容を決定する場合に
は、そのようにして決定した処理内容に相当する処理部
351,352…、35Mを選択するための目標値DV
を設定する。
When learning the image processing selecting section 33, the operator sets a document serving as teacher data in the image reading device 11, and selects the optimum processing for the document from the processing sections 351, 352,..., 35M. Instruction data DC so that the target value DV that matches the selection data DS is set. If the operator knows the processing content corresponding to the document serving as the teacher data, the operator sets a target value DV for selecting the processing units 351, 352,..., 35M corresponding to the processing content. If the operator decides the processing content after seeing the actual processing results of the processing units 351, 352,..., 35 M on the document serving as the teacher data, the processing corresponding to the processing content determined in this way , 352,..., 35M
Set.

【0036】なお、目標値DVの設定を操作部116か
らの指示データDCに基づいて行うように説明したが、
操作部116ではなく、目標値DVの設定のための専用
のパネル又は機器を用いることとしてもよい。また、操
作部116からの指示データDC又は専用の機器からの
入力に基づくことなく、例えば教師データとなる原稿に
目標値DVを設定するための情報を予め記録しておき、
原稿を読み取ったときにその情報を同時に読み取るよう
にし、その情報に基づいて自動的に目標値DVが設定さ
れるように構成してもよい。
It has been described that the target value DV is set based on the instruction data DC from the operation unit 116.
Instead of the operation unit 116, a dedicated panel or device for setting the target value DV may be used. In addition, information for setting the target value DV in a document serving as teacher data is recorded in advance without being based on the instruction data DC from the operation unit 116 or an input from a dedicated device,
When the document is read, the information may be read at the same time, and the target value DV may be automatically set based on the information.

【0037】誤差演算部342は、画像処理選択部33
から出力される選択データDSと、目標値設定部341
から出力される目標値DVとを比較し、その誤差ΔDを
出力する。誤差ΔDの演算方法として、例えばビット毎
の誤差を平均する方法、2乗平均する方法、2乗加算す
る方法など、種々の方法が用いられる。
The error calculation section 342 includes an image processing selection section 33
Data DS output from the CPU and a target value setting unit 341
And outputs the error ΔD. As a method of calculating the error ΔD, various methods such as a method of averaging the error for each bit, a method of averaging squares, and a method of adding squares are used.

【0038】結合係数発生部343は、画像処理選択部
33のニューラルネットワークの各ニューロンについて
の結合係数Wi,jを与える。結合係数Wi,jは、1
回毎に、誤差ΔDが小さくなるような方向に変化させ
る。
The coupling coefficient generator 343 gives the coupling coefficients Wi, j for each neuron of the neural network of the image processing selector 33. The coupling coefficient Wi, j is 1
Each time, the direction is changed so that the error ΔD becomes smaller.

【0039】図4において、画像処理選択部33はニュ
ーラルネットワークからなる。図に示すニューラルネッ
トワークは、入力層S、中間層A、及び出力層Rの3層
からなる。入力層Sのニューロン数はN個、出力層Rの
ニューロン数はM個であり、中間層Aのニューロン数は
適当な個数である。中間層Aが1層のみ示されている
が、中間層Aが2層以上あってもよい。
In FIG. 4, the image processing selecting section 33 is formed by a neural network. The neural network shown in the figure is composed of an input layer S, an intermediate layer A, and an output layer R. The number of neurons in the input layer S is N, the number of neurons in the output layer R is M, and the number of neurons in the intermediate layer A is an appropriate number. Although only one intermediate layer A is shown, there may be two or more intermediate layers A.

【0040】入力層Sの各ニューロンには特徴量DHの
各データが入力される。複数種類の特徴量DHが入力さ
れる場合もある。例えば、第1番から第(N−x)番の
ニューロンにはある特徴量DHのデータが入力され、第
(N−x+1)番から第N番のニューロンには別の特徴
量DHのデータが入力される。
Each data of the feature value DH is input to each neuron of the input layer S. A plurality of types of feature values DH may be input. For example, data of a certain feature value DH is input to the first to (N−x) th neurons, and data of another feature value DH is input to the (N−x + 1) th to Nth neurons. Is entered.

【0041】出力層Rの各ニューロンからは、選択デー
タDSの各ビットに対応するデータが出力される。例え
ば、第1番のニューロンからは処理1を選択するための
データが、第2番のニューロンからは処理2を選択する
ためのデータが、第M番のニューロンからは処理Mを選
択するためのデータが、それぞれ出力される。しかし、
選択データDSに対して別途設けたデコーダによってデ
コードし、これによって処理部を選択するようにしても
よい。
Each neuron of the output layer R outputs data corresponding to each bit of the selection data DS. For example, data for selecting the processing 1 from the first neuron, data for selecting the processing 2 from the second neuron, and data for selecting the processing M from the Mth neuron. Data is output respectively. But,
The selection data DS may be decoded by a decoder provided separately, and the processing unit may be selected by this.

【0042】図5において、画像処理部35の第1番の
処理部351は、入力される画像データD1と出力され
る画像データDOとの関係がほぼ二次関数となってい
る。第2番の処理部352は、入力される画像データD
1と出力される画像データDOとの関係がほぼ対数関数
となっている。第M番の処理部35Mは、入力される画
像データD1と出力される画像データDOとの関係がほ
ぼ一次関数となっている。
In FIG. 5, in the first processing unit 351 of the image processing unit 35, the relation between the input image data D1 and the output image data DO is substantially a quadratic function. The second processing unit 352 receives the input image data D
The relationship between 1 and the output image data DO is almost a logarithmic function. In the M-th processing unit 35M, the relationship between the input image data D1 and the output image data DO is substantially a linear function.

【0043】処理部351,352…、35Mは、例え
ば、入力と出力との対応関係を示すテーブルとして設け
られている。テーブルには、入力される画像データD1
の濃度値に対応した濃度値の画像データD0を出力する
画像パラメータを含んでいる。また、それぞれの処理を
行うための関数を発生するプログラムとして設けられる
こともある。
The processing units 351, 352,..., 35M are provided, for example, as tables showing the correspondence between inputs and outputs. The table contains input image data D1.
And an image parameter for outputting the image data D0 of the density value corresponding to the density value of. In addition, it may be provided as a program that generates a function for performing each processing.

【0044】次に、上述の複写機1の使用方法を説明す
る。複写機1を使用する前に、画像処理選択部33を学
習させる。画像処理選択部33の学習は、教師データと
なる原稿を画像読み取り装置11により読み取らせ、そ
れに対応する目標値DVを操作部116から設定する。
これによって、学習部34によって、画像処理選択部3
3の学習が繰り返して実行される。教師データである原
稿を種々取り替えて上述の学習を行わせる。これによっ
て、画像処理選択部33に最適の結合係数Wi,jが設
定される。画像処理選択部33はその結合係数Wi,j
を保持する。これによって学習は終了する。なお、教師
データとして、例えば、文字画像の原稿、写真画像の原
稿、網点画像の原稿などが用いられる。
Next, a method of using the above-described copying machine 1 will be described. Before using the copying machine 1, the image processing selecting unit 33 is made to learn. In the learning of the image processing selection unit 33, a document serving as teacher data is read by the image reading device 11, and a corresponding target value DV is set from the operation unit 116.
Thereby, the learning unit 34 allows the image processing selecting unit 3
The learning of No. 3 is repeatedly executed. The above-described learning is performed by variously replacing the manuscript as the teacher data. Thus, the optimum coupling coefficient Wi, j is set in the image processing selecting unit 33. The image processing selection unit 33 determines the coupling coefficient Wi, j
Hold. This ends the learning. As the teacher data, for example, a document of a character image, a document of a photographic image, a document of a halftone image, and the like are used.

【0045】その後、オペレータが複写したい原稿を画
像読み取り装置11にセットすると、その原稿を読み取
って得た画像データD1から特徴量DHが抽出され、そ
の特徴量DHに応じて画像処理選択部33から選択デー
タDSが出力され、選択データDSによって画像処理部
35の中から適切な処理部が選択される。画像データD
1は、選択された処理部によって処理され、画像データ
DOとして出力される。出力された画像データDOに基
づいて、画像記録装置12により用紙PP上への印刷が
行われる。
After that, when the operator sets the original to be copied on the image reading device 11, the characteristic amount DH is extracted from the image data D1 obtained by reading the original, and the image processing selecting unit 33 outputs the characteristic amount DH in accordance with the characteristic amount DH. The selection data DS is output, and an appropriate processing unit is selected from the image processing units 35 according to the selection data DS. Image data D
1 is processed by the selected processing unit and output as image data DO. The image recording device 12 performs printing on the paper PP based on the output image data DO.

【0046】上述の複写機1によると、原稿から読み取
られた画像データD1から抽出された一種類又は複数種
類の特徴量DHを画像処理選択部33の入力層Sに入力
し、出力層Rから出力される選択データDSによって画
像処理部35の中の処理部351,352…、35Mの
いずれかを選択するように構成したので、容易にユーザ
の所望する画像品質の複写画像を得ることができるとも
に、画像処理選択部33のニューラルネットワークの回
路規模を小さくすることができ、ニューラルネットワー
クの回路に要するコストを削減し且つ学習に要する時間
を短縮することができる。
According to the copying machine 1 described above, one or a plurality of types of feature values DH extracted from the image data D1 read from the original are input to the input layer S of the image processing selection unit 33, and are output from the output layer R. .., 35M in the image processing unit 35 is selected according to the output selection data DS, so that a copy image of the image quality desired by the user can be easily obtained. In both cases, the circuit scale of the neural network of the image processing selecting unit 33 can be reduced, so that the cost required for the circuit of the neural network and the time required for learning can be reduced.

【0047】しかも、教師データに対する目標値DVを
設定し、画像処理選択部33に学習させることによって
最適の処理部351,352…、35Mを選択するよう
に構成したので、従来のように複数のしきい値などのパ
ラメータを設定する必要がなく、複写機1で複写される
多くの汎用的な原稿に対して最適な画像処理を実行する
ことができる。
Further, the target value DV for the teacher data is set, and the image processing selecting unit 33 learns to select the optimum processing units 351, 352,..., 35M. There is no need to set parameters such as thresholds, and optimal image processing can be performed on many general-purpose documents copied by the copying machine 1.

【0048】また、画像処理選択部33のニューラルネ
ットワークは、画像処理部35に予め準備された複数の
処理部351,352…、35Mの中からの選択方法を
学習すればよいので、ニューラルネットワーク自体によ
って画像処理を行う場合のように異常な画像パラメータ
が生成されることがない。つまり、異常な画像処理が行
われる恐れがない。
The neural network of the image processing selecting unit 33 only needs to learn a selection method from among a plurality of processing units 351, 352,..., 35M prepared in advance in the image processing unit 35. Abnormal image parameters are not generated unlike the case where image processing is performed. That is, there is no possibility that abnormal image processing is performed.

【0049】次に、特徴量抽出部32において抽出され
る特徴量DHであるエッジ情報及び孤立点情報について
説明する。まず、エッジ情報について説明する。図6は
ラプラシアン・フィルタの例を示す図、図7はラプラシ
アン・フィルタを用いてエッジ強調された画像データを
示す図である。
Next, the edge information and the isolated point information, which are the feature values DH extracted by the feature value extracting unit 32, will be described. First, the edge information will be described. FIG. 6 is a diagram illustrating an example of a Laplacian filter, and FIG. 7 is a diagram illustrating image data edge-emphasized using the Laplacian filter.

【0050】ラプラシアン・フィルタは、画像のエッジ
部のコントラストを上げて画像のシャープさを増す効果
(アンシャープマスク効果)を得るためにしばしば用い
られる。ラプラシアン・フィルタを用いることによって
得られたエッジ情報と元の画像データD1とを加算する
ことによって、図7に示すようにエッジ強調された画像
データが得られる。
The Laplacian filter is often used to increase the contrast at the edge of an image to increase the sharpness of the image (unsharp mask effect). The edge information obtained by using the Laplacian filter and the original image data D1 are added to obtain edge-enhanced image data as shown in FIG.

【0051】図8(A)及び(B)はそれぞれ一次微分
フィルタの例を示す図である。これら二種類の一次微分
フィルタを用いて主走査方向と副走査方向の画像濃度傾
斜を検出する。それらにより検出された結果を用いてエ
ッジ情報が抽出される。
FIGS. 8A and 8B are diagrams showing examples of the primary differential filter. Using these two types of primary differential filters, image density gradients in the main scanning direction and the sub scanning direction are detected. Edge information is extracted by using the result detected by them.

【0052】次に、孤立点情報について説明する。網点
印刷のようなドット・スクリーンで階調表現された原稿
であるか否かを検出するために、網点原稿内に一定周期
で必ず存在する各網点の中心画像(カーネル)を孤立点
化させるための空間フィルタである孤立点検出フィルタ
を用いる。
Next, the isolated point information will be described. In order to detect whether or not the original is expressed in gradation using a dot screen such as halftone printing, the center image (kernel) of each halftone dot that is always present at a fixed period in the halftone original is isolated. An isolated point detection filter, which is a spatial filter for converting the image into an image, is used.

【0053】まず、孤立点検出フィルタを用い、中心画
素がその周辺画素に対して、総て濃度が大きいか小さい
かのどちらかであり、且つ周辺画素8方向の濃度平均よ
りもあるレベル分総て大きいか小さいかのいずれかを抽
出する。そして、矩形領域(主走査:41dot/副走
査9ライン)内における白の孤立点と黒の孤立点を独立
してカウントし、孤立点情報を抽出する。
First, using the isolated point detection filter, the central pixel is either higher or lower in density with respect to its peripheral pixels, and the total pixel is higher than the density average in the peripheral pixel 8 direction by a certain level. Extract either larger or smaller. Then, white isolated points and black isolated points in a rectangular area (main scanning: 41 dots / 9 sub-scanning lines) are counted independently, and isolated point information is extracted.

【0054】上述のようにして抽出された特徴量DHに
基づいて、画像処理選択部33によって、例えば文字画
像、写真画像、又は網点画像などの判別が行われ、その
結果が選択データDSとして出力される。例えば、エッ
ジ情報があるしきい値より大きいとき、その画像は文字
画像と判別される。孤立点情報があるしきい値より大き
いとき、その画像は網点画像と判判別される。それ以外
は写真画像と判別される。そして、画像の種類(文字画
像、写真画像、網点画像など)に応じて、選択データD
Sにより画像処理部35の中から適切な処理部が選択さ
れる。
Based on the feature value DH extracted as described above, the image processing selection unit 33 determines, for example, a character image, a photographic image, or a halftone image, and the result is used as the selection data DS. Is output. For example, when the edge information is larger than a certain threshold, the image is determined to be a character image. When the isolated point information is larger than a certain threshold, the image is determined to be a halftone image. Otherwise, it is determined to be a photographic image. Then, according to the type of image (character image, photo image, halftone image, etc.), the selection data D
By S, an appropriate processing unit is selected from the image processing units 35.

【0055】例えば、文字画像の場合には、エッジ強調
処理を行なったり、図5に示す処理部352によって低
濃度の入力データに対する出力データを高濃度にする処
理を行い、文字のエッジを強調する。
For example, in the case of a character image, edge emphasis processing is performed, or processing for increasing the output data with respect to the low-density input data by the processing unit 352 shown in FIG. .

【0056】写真画像の場合には、例えば図5に示す処
理部35Mによって、入力データに対して出力データが
リニアとなる処理を行い、連続した階調性を保持する。
網点画像の場合には、例えばスムージングフィルタを用
いて平滑化処理を行なう。スムージングフィルタは、画
像を平滑化するための一種のローパスフィルタであり、
例えば主走査方向の3画素に対して、1/4、1/2、
1/4の割合で積分処理(重み付け平均)を行い、モワ
レの原因となる高周波成分をカットしたデータを出力す
る。
In the case of a photographic image, for example, the processing section 35M shown in FIG. 5 performs a process of making the output data linear with respect to the input data, and maintains continuous gradation.
In the case of a halftone image, a smoothing process is performed using, for example, a smoothing filter. A smoothing filter is a kind of low-pass filter for smoothing an image,
For example, for three pixels in the main scanning direction, 1/4, 1/2,
Integration processing (weighted averaging) is performed at a rate of 1/4, and data obtained by cutting high-frequency components that cause moire is output.

【0057】上述の実施形態においては、複写機1の中
に学習部34が設けられ、複写機1の使用の前に学習部
34による画像処理選択部33の学習を行うように説明
したが、そのような学習をメーカにおける工場の出荷前
にメーカ側で行うようにしてもよい。また、その場合に
おいても、複写機1のユーザの側において、オペレータ
の好みや原稿の特殊性に応じて適時行うようにしてもよ
い。
In the above embodiment, the learning unit 34 is provided in the copying machine 1 and the learning unit 34 learns the image processing selecting unit 33 before using the copying machine 1. Such learning may be performed by the manufacturer before shipment from the factory. Also in this case, the user of the copying machine 1 may perform the processing in a timely manner according to the preference of the operator or the specialty of the document.

【0058】また、学習部34を複写機1の内部に設け
るのではなく、複写機1の外部に設け、複写機1には外
部の学習部34との接続のためのコネクタ及びインタフ
ェースを設けることとしてもよい。その場合において、
外部の学習部34は、専用の学習ユニットとして構成
し、又は汎用のパーソナルコンピュータに学習用のプロ
グラムをロードすることによって構成することができ
る。このように構成した場合には、複写機1のユーザ又
はサービスマンなどによって画像処理選択部33の学習
を行う場合にのみ、学習部34を接続することとし、複
写機1としての通常の使用に際しては学習部34を取り
外しておけばよい。
The learning unit 34 is not provided inside the copying machine 1, but is provided outside the copying machine 1. The copying machine 1 is provided with a connector and an interface for connection with the external learning unit 34. It may be. In that case,
The external learning unit 34 can be configured as a dedicated learning unit, or can be configured by loading a learning program into a general-purpose personal computer. In the case of such a configuration, the learning unit 34 is connected only when the user of the copying machine 1 or the service person learns the image processing selecting unit 33, and the normal use as the copying machine 1 is performed. Can be obtained by removing the learning unit 34.

【0059】また、学習を行う場合に、画像処理部35
に予め準備された処理部351,352…、35Mの中
から、実際に使用する処理部のみを選択して指定し、画
像処理を行う種類の数を目標数として設定可能としてお
くこともできる。その場合には、使用しない処理部に対
応する出力層Rの結合係数を「0」に固定すればよい。
したがって、目標数を複写機1の実際の用途に応じて必
要最小限とすることによって、ニューラルネットワーク
の学習時間を一層短縮することができる。しかも、目標
数が小さくなることにより、操作部116の操作によっ
て目標値DVを容易に設定することが可能となる。
When performing learning, the image processing unit 35
, 35M prepared in advance, only the processing unit actually used is selected and designated, and the number of types of image processing can be set as the target number. In that case, the coupling coefficient of the output layer R corresponding to the unused processing unit may be fixed to “0”.
Therefore, the learning time of the neural network can be further reduced by minimizing the target number according to the actual use of the copying machine 1. In addition, by reducing the target number, it is possible to easily set the target value DV by operating the operation unit 116.

【0060】また、目標数が設定されることによってニ
ューラルネットワークを構成するニューロンの総個数が
分かるので、種々のニューロン数について求めた学習時
間の実験値に基づいて、設定された目標数に対応した学
習時間の予測値を求めることができる。したがって、求
めた学習時間の予測値を画面に表示することによって、
ユーザが目標数を決める際の参考となり、目標数を決め
易い。
Further, since the total number of neurons constituting the neural network can be determined by setting the target number, the target number corresponding to the set target number is determined based on the experimental values of the learning time obtained for various numbers of neurons. A predicted value of the learning time can be obtained. Therefore, by displaying the estimated value of the learning time obtained on the screen,
It is helpful for the user to determine the target number, and the target number is easy to determine.

【0061】上述の実施形態において、画像読み取り装
置11にセットされた原稿について、画像処理部35の
総ての処理部351,352…、35Mによって実際に
画像処理を行い、その結果を用紙PP上に印刷し、その
中から適切な処理をオペレータが選択して目標値DVを
設定するようにしてもよい。
In the above-described embodiment, the image processing is performed on all the originals set on the image reading apparatus 11 by all the processing units 351, 352. And the operator may select an appropriate process from among them to set the target value DV.

【0062】そうすると、実際に画像処理を行った結果
を見て処理部351,352…、35Mを選択するの
で、オペレータは処理の内容や特性などを考える必要が
なく、目標値DVの設定が容易であり且つ間違えること
がない。したがって、画像処理又は画像特性などに関す
る専門的知識を必要とせず、専門的知識を持たないユー
ザでも目標値DVを容易に設定することが可能である。
Then, the processing units 351, 352,..., 35 M are selected by looking at the result of the actual image processing, so that the operator does not need to consider the contents and characteristics of the processing, and the setting of the target value DV is easy. It is not wrong. Therefore, it is not necessary to have specialized knowledge on image processing or image characteristics, and even a user without specialized knowledge can easily set the target value DV.

【0063】なお、その場合に、画像処理した結果を用
紙PPに印刷するのでなく、画面に表示するようにして
もよい。1つ1つの画像を印刷又は表示してもよく、複
数の画像を一覧して印刷又は表示してもよい。
In this case, the result of the image processing may be displayed on the screen instead of being printed on the paper PP. Each image may be printed or displayed, or a plurality of images may be listed and printed or displayed.

【0064】上述の実施形態においては、画像処理部3
5の処理部351,352…、35Mを予め準備した
が、ユーザにおいて処理内容を書き換えることが可能な
処理部を設けておき、カスタマイズな画像処理を設定で
きるようにしてもよい。また、画像処理部35内の一部
の処理部を画像処理部35の外部に設け、画像データD
1に対して常に又は選択的に実行させるようにしてもよ
い。
In the above embodiment, the image processing unit 3
, 35M are prepared in advance, but a processing unit capable of rewriting the processing contents by a user may be provided so that customized image processing can be set. Further, some processing units in the image processing unit 35 are provided outside the image processing unit 35, and the image data D
1 may be always or selectively executed.

【0065】上述の実施形態において、画像処理選択部
33のニューラルネットワークとして3層のものを用い
たが、4層以上のものでもよい。各層のニューロン数、
結合係数の有無、応答関数の種類、学習方法などは、上
述した以外に種々変更することができる。また、ニュー
ラルネットワークは、コンピュータによるシミュレータ
により実現が可能である。つまり、例えば、学習部34
から与えられる結合係数又は学習済の結合係数と応答関
数を表したテーブル、及びそれらを演算及び検索するた
めのプログラムから実現することが可能である。また、
ハードウエアによって実現することも可能である。
In the above embodiment, a three-layer neural network is used as the neural network of the image processing selecting unit 33, but a four-layer or more neural network may be used. The number of neurons in each layer,
The presence or absence of the coupling coefficient, the type of the response function, the learning method, and the like can be variously changed in addition to the above. The neural network can be realized by a computer simulator. That is, for example, the learning unit 34
, Or a table representing the learned coupling coefficients and response functions, and a program for calculating and retrieving them. Also,
It can also be realized by hardware.

【0066】その他、画像処理選択部33、学習部3
4、画像処理部35、又は画像処理ユニット115の構
成、処理内容、処理順序、処理タイミング、複写機1の
構成などは、本発明の主旨に沿って適宜変更することが
できる。
In addition, the image processing selecting section 33, the learning section 3
4. The configuration of the image processing unit 35 or the image processing unit 115, the processing content, the processing sequence, the processing timing, the configuration of the copying machine 1, and the like can be appropriately changed in accordance with the gist of the present invention.

【0067】また、上述の複写機1においては、モノク
ロにおける画像処理又は画像補正を例にして説明した
が、カラーの画像処理又は画像補正に適用できることは
言うまでもない。
In the above-described copier 1, the image processing or image correction in monochrome has been described as an example, but it goes without saying that the present invention can be applied to color image processing or image correction.

【0068】[0068]

【発明の効果】請求項1乃至請求項4の発明によると、
比較的小規模のニューラルネットワークを用い、学習に
要する時間を低減することができ、汎用的な原稿に対し
て異常な画像処理手段を生成することがなく、予め準備
された複数の画像処理手段の中から適切のものを選択す
ることによって容易に所望の画像品質を得ることができ
る。
According to the first to fourth aspects of the present invention,
Using a relatively small-scale neural network, the time required for learning can be reduced, and no abnormal image processing means is generated for a general-purpose document. A desired image quality can be easily obtained by selecting an appropriate one from among them.

【0069】請求項3の発明によると、ユーザにおいて
使用する原稿などに応じて適切な画像処理が行われるよ
うに学習させることができる。
According to the third aspect of the present invention, it is possible for the user to learn so that appropriate image processing is performed according to the original or the like used.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る画像処理ユニットが設けられたデ
ジタル式の複写機の概略の構成を示す図である。
FIG. 1 is a diagram showing a schematic configuration of a digital copying machine provided with an image processing unit according to the present invention.

【図2】画像処理ユニットの全体の構成を示すブロック
図である。
FIG. 2 is a block diagram illustrating an overall configuration of an image processing unit.

【図3】学習部の構成の例を示す図である。FIG. 3 is a diagram illustrating an example of a configuration of a learning unit.

【図4】画像処理選択部の構成の例を示す図である。FIG. 4 is a diagram illustrating an example of a configuration of an image processing selection unit.

【図5】画像処理部の構成の例を概念的に示す図であ
る。
FIG. 5 is a diagram conceptually illustrating an example of a configuration of an image processing unit.

【図6】ラプラシアン・フィルタの例を示す図である。FIG. 6 is a diagram illustrating an example of a Laplacian filter.

【図7】ラプラシアン・フィルタを用いてエッジ強調さ
れた画像データを示す図である。
FIG. 7 is a diagram showing image data edge-emphasized using a Laplacian filter.

【図8】一次微分フィルタの例を示す図である。FIG. 8 is a diagram illustrating an example of a primary differential filter.

【符号の説明】[Explanation of symbols]

32 特徴量抽出部(特徴量抽出手段) 33 画像処理選択部(画像処理選択手段、ニューラル
ネットワーク) 34 学習部(学習手段) 35 画像処理部 115 画像処理ユニット(画像処理装置) 351、352、35M 処理部(画像処理手段)
32 feature amount extraction unit (feature amount extraction unit) 33 image processing selection unit (image processing selection unit, neural network) 34 learning unit (learning unit) 35 image processing unit 115 image processing unit (image processing device) 351, 352, 35M Processing unit (image processing means)

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】入力される画像データに対し、当該画像デ
ータの特徴に応じた内容の画像処理を行って出力する画
像処理装置であって、 画像処理の内容の異なる複数種類の画像処理手段を有す
る画像処理部と、 入力される前記画像データの特徴量を抽出する特徴量抽
出手段と、 前記複数種類の画像処理手段の中から前記特徴量に対応
した適切な画像処理手段を選択するニューラルネットワ
ークと、 を有してなることを特徴とする画像処理装置。
An image processing apparatus which performs image processing of contents according to characteristics of the image data and outputs the input image data, wherein a plurality of types of image processing means having different contents of the image processing are provided. Image processing unit, a feature amount extracting unit that extracts a feature amount of the input image data, and a neural network that selects an appropriate image processing unit corresponding to the feature amount from the plurality of types of image processing units An image processing apparatus, comprising:
【請求項2】入力される画像データに対し、当該画像デ
ータの特徴に応じた内容の画像処理を行って出力する画
像処理装置であって、 画像処理の内容の異なる複数種類の画像処理手段を有す
る画像処理部と、 入力される前記画像データの特徴量を抽出する特徴量抽
出手段と、 入力層に特徴量を入力し、入力された特徴量に対応する
画像処理手段を選択する選択データを出力層から出力す
るように学習させたニューラルネットワークと、 前記ニューラルネットワークによって、前記複数種類の
画像処理手段の中から前記特徴量抽出手段により抽出さ
れた特徴量に対応した適切な画像処理手段を選択する画
像処理選択手段と、 を有してなることを特徴とする画像処理装置。
2. An image processing apparatus for performing image processing of contents according to the characteristics of the input image data and outputting the processed image data, wherein a plurality of types of image processing means having different image processing contents are provided. An image processing unit, a feature amount extracting unit for extracting a feature amount of the input image data, and selection data for inputting a feature amount to an input layer and selecting an image processing unit corresponding to the input feature amount. A neural network trained to output from an output layer, and an appropriate image processing unit corresponding to the feature extracted by the feature extracting unit is selected from the plurality of types of image processing by the neural network. An image processing apparatus, comprising:
【請求項3】入力される画像データに対し、当該画像デ
ータの特徴に応じた内容の画像処理を行って出力する画
像処理装置であって、 画像処理の内容の異なる複数種類の画像処理手段を有す
る画像処理部と、 入力される前記画像データの特徴量を抽出する特徴量抽
出手段と、 前記特徴量抽出手段により抽出された特徴量が入力層に
入力され、前記複数種類の画像処理手段の中から1つの
画像処理手段を選択する選択データを出力層から出力す
るニューラルネットワークと、 前記入力層に特徴量を入力し、入力された特徴量に対応
する適切な画像処理手段を選択する選択データを前記出
力層から出力するように前記ニューラルネットワークを
学習させるための学習手段と、 を有してなることを特徴とする画像処理装置。
3. An image processing apparatus for performing input image processing on image data having a content according to the characteristics of the image data and outputting the processed image data, wherein a plurality of types of image processing means having different image processing contents are provided. An image processing unit having: a feature amount extraction unit that extracts a feature amount of the input image data; a feature amount extracted by the feature amount extraction unit is input to an input layer; A neural network that outputs selection data for selecting one image processing unit from the output layer from an output layer, and selection data that inputs a feature amount to the input layer and selects an appropriate image processing unit corresponding to the input feature amount And a learning means for learning the neural network so as to output the neural network from the output layer.
【請求項4】前記複数種類の画像処理手段に中に、入力
される画像データの濃度値に対応した濃度値の画像デー
タを出力する画像パラメータを含んでなる、 請求項1乃至請求項3のいずれかに記載の画像処理装
置。
4. The image processing apparatus according to claim 1, wherein said plurality of types of image processing means include image parameters for outputting image data having a density value corresponding to a density value of input image data. An image processing device according to any one of the above.
JP9086162A 1997-04-04 1997-04-04 Image processor Pending JPH10283460A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9086162A JPH10283460A (en) 1997-04-04 1997-04-04 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9086162A JPH10283460A (en) 1997-04-04 1997-04-04 Image processor

Publications (1)

Publication Number Publication Date
JPH10283460A true JPH10283460A (en) 1998-10-23

Family

ID=13879061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9086162A Pending JPH10283460A (en) 1997-04-04 1997-04-04 Image processor

Country Status (1)

Country Link
JP (1) JPH10283460A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193682A (en) * 2002-12-06 2004-07-08 Sharp Corp Image processing method, image processor and image forming apparatus having the same
JPWO2010050334A1 (en) * 2008-10-30 2012-03-29 コニカミノルタエムジー株式会社 Information processing device
JP2020142449A (en) * 2019-03-07 2020-09-10 京セラドキュメントソリューションズ株式会社 Image formation apparatus and image formation program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193682A (en) * 2002-12-06 2004-07-08 Sharp Corp Image processing method, image processor and image forming apparatus having the same
JPWO2010050334A1 (en) * 2008-10-30 2012-03-29 コニカミノルタエムジー株式会社 Information processing device
JP5533662B2 (en) * 2008-10-30 2014-06-25 コニカミノルタ株式会社 Information processing device
JP2020142449A (en) * 2019-03-07 2020-09-10 京セラドキュメントソリューションズ株式会社 Image formation apparatus and image formation program

Similar Documents

Publication Publication Date Title
US5077615A (en) Halftone image recording apparatus combining error scattering and multi-level tone conversion techniques
JP4912270B2 (en) Image processing apparatus and control method thereof
US6175427B1 (en) System and method of tonal correction of independent regions on a compound document
US8041143B2 (en) Methods for background and noise suppression in binary to grayscale image conversion
US6577761B1 (en) Image processor and image processing system
US5477335A (en) Method and apparatus of copying of black text on documents using a color scanner
JP2002247371A (en) Image processor and recording medium having recorded image processing program
US5835238A (en) Phantom level edge enhanced error diffusion
US5646741A (en) Image processing apparatus and method capable of smoothing image data in accordance with an image enlargement/reduction ratio
US7787703B2 (en) Method and system for extending binary image data to contone image data
JP4366634B2 (en) Noise pixel map creation method, apparatus and program for implementing the method, and photo print apparatus
JP4861506B2 (en) Image processing apparatus and control method thereof
JPH10283460A (en) Image processor
JPH07254994A (en) Method and device for forming image
JP3188505B2 (en) Image processing device
JPH10283458A (en) Image processor
JPH01115271A (en) Image processor
JPH10283459A (en) Image processor
JP3216963B2 (en) Halftone area determination device
JP3725255B2 (en) Digital image processing device
JP2945022B2 (en) Image processing device
JP3005003B2 (en) Image processing method
JP3183788B2 (en) Halftone area determination device
JP3564216B2 (en) Image processing device
JPH05336365A (en) Image forming device