JPH08255244A - Image processor - Google Patents

Image processor

Info

Publication number
JPH08255244A
JPH08255244A JP7056380A JP5638095A JPH08255244A JP H08255244 A JPH08255244 A JP H08255244A JP 7056380 A JP7056380 A JP 7056380A JP 5638095 A JP5638095 A JP 5638095A JP H08255244 A JPH08255244 A JP H08255244A
Authority
JP
Japan
Prior art keywords
image data
image
corrected
color
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7056380A
Other languages
Japanese (ja)
Inventor
Hiroyuki Negishi
広行 根岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP7056380A priority Critical patent/JPH08255244A/en
Publication of JPH08255244A publication Critical patent/JPH08255244A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To make it possible to perform the image processing of only image data to be a correction object for the image data on a screen and to obtain the image data in which an object is made attractive in appearance in an image by correcting the image data to be the correction object which is preliminarily set from the inputted image data on the screen. CONSTITUTION: This processor is provided with an image recognition means 10 and an image correction means 11. The image recognition means 10 recognizes the image data of the object which is preliminarily set as a correction object from the image data on a screen that a data input means 2 inputs from an original. The image correction means 11 corrects only the image data of the recognized object for the image data on the both surfaces by a preliminarily set image processing. Therefore, the image data of the object can be recognized from the image data by the image recognition means 10 and the image data on the screen can be corrected by the image correction means 11. In this case, because only the image data of a specified object of the image data on the screen which is copied from the original is corrected, only the image of a table can be made conspicuous when the indoor image is copied, for instance.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像データを入力して
補正してから出力する画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for inputting image data, correcting it, and outputting it.

【0002】[0002]

【従来の技術】現在、画像データを入力して出力する画
像処理装置として、デジタル複写機などがある。デジタ
ル複写機は、イメージスキャナとレーザプリンタとを接
続した画像処理装置として認識することができ、イメー
ジスキャナの読取走査により原稿の画面から入力した画
像データを、レーザプリンタの印刷により出力すること
ができる。
2. Description of the Related Art At present, there is a digital copying machine as an image processing apparatus for inputting and outputting image data. The digital copying machine can be recognized as an image processing apparatus in which an image scanner and a laser printer are connected, and the image data input from the screen of the original by the scanning scanning of the image scanner can be output by the printing of the laser printer. .

【0003】[0003]

【発明が解決しようとする課題】上述したデジタル複写
機などの画像処理装置は、画像データを入力して出力す
ることができる。
The image processing apparatus such as the digital copying machine described above can input and output image data.

【0004】従来は、複写機には原稿の画像データを忠
実に再現することだけが要求されたが、現在では、原稿
の画像データに各種の画像処理を実行することが要望さ
れており、ソラリゼーションやモザイクなどの画像処理
を実現した製品もある。しかし、このような画像処理
は、画像データの画面全体に一様に実行されるものであ
り、画面に位置する特定の物体のみを強調するようなこ
とはできない。例えば、室内の画像を複写する場合に、
テーブルの画像のみを際立たせたいような場合もある
が、このような画像処理をデジタル複写機により実行す
ることは困難である。
Conventionally, a copying machine was required only to faithfully reproduce image data of an original document, but nowadays, it is desired to perform various image processing on the image data of the original document, and solarization is required. There is also a product that realizes image processing such as mosaic and mosaic. However, such image processing is uniformly executed on the entire screen of image data, and it is not possible to emphasize only a specific object located on the screen. For example, when copying indoor images,
In some cases, it is desired to make only the image on the table stand out, but it is difficult to execute such image processing by a digital copying machine.

【0005】このようなことは、パーソナルコンピュー
タにイメージスキャナやレーザプリンタを接続したDT
P(Desk Top Publishing)システムなどでは、実行する
ことができる。しかし、これにはパーソナルコンピュー
タをユーザが操作する必要があり、作業が極めて煩雑で
ある。
This is because the DT in which an image scanner or a laser printer is connected to a personal computer.
It can be executed by a P (Desk Top Publishing) system or the like. However, this requires the user to operate the personal computer, and the work is extremely complicated.

【0006】[0006]

【課題を解決するための手段】請求項1記載の発明は、
画面の画像データを入力するデータ入力手段を設け、入
力された画面の画像データから予め設定された補正対象
の画像データを認識する画像認識手段を設け、認識され
た補正対象の画像データを補正する画像補正手段を設
け、補正対象の画像データが補正された画面の画像デー
タを出力するデータ出力手段を設けた。
According to the first aspect of the present invention,
Data input means for inputting image data of the screen is provided, image recognition means for recognizing preset image data of the correction target from the input image data of the screen is provided, and the recognized image data of the correction target is corrected. The image correction means is provided, and the data output means for outputting the image data of the screen in which the image data to be corrected is corrected is provided.

【0007】請求項2記載の発明は、請求項1記載の発
明において、画像認識手段が、ニューラルネットワーク
を用いて補正対象の画像データを認識する。
According to a second aspect of the invention, in the first aspect of the invention, the image recognition means recognizes the image data to be corrected by using a neural network.

【0008】請求項3記載の発明は、請求項1記載の発
明において、画像認識手段が、補正対象の画像データか
ら予め設定された形状を識別する第一ニューラルネット
ワークと、識別された形状に従って補正対象の画像デー
タを判別する第二ニューラルネットワークとを有する。
According to a third aspect of the present invention, in the first aspect of the invention, the image recognition means corrects the first neural network for identifying a preset shape from the image data to be corrected and the corrected shape according to the identified shape. A second neural network for discriminating target image data.

【0009】請求項4記載の発明は、請求項3記載の発
明において、補正対象の画像データの色割合を検出して
第二ニューラルネットワークに入力する色情報検出手段
を設けた。
According to a fourth aspect of the invention, in the third aspect of the invention, there is provided color information detecting means for detecting the color ratio of the image data to be corrected and inputting it to the second neural network.

【0010】請求項5記載の発明は、請求項4記載の発
明において、色情報検出手段が、色割合を補正対象の画
像データに存在する三原色の色成分の割合として出力す
る。
According to a fifth aspect of the invention, in the invention of the fourth aspect, the color information detecting means outputs the color ratio as a ratio of the color components of the three primary colors existing in the image data to be corrected.

【0011】請求項6記載の発明は、請求項4記載の発
明において、色情報検出手段が、補正対象の画像データ
の色個数も検出して色割合と共に第二ニューラルネット
ワークに入力する。
According to a sixth aspect of the present invention, in the fourth aspect of the present invention, the color information detecting means also detects the number of colors of the image data to be corrected and inputs it to the second neural network together with the color ratio.

【0012】請求項7記載の発明は、請求項6記載の発
明において、色情報検出手段が、色個数を補正対象の画
像データに存在する三原色の色成分の和の割合として検
出する。
According to a seventh aspect of the invention, in the sixth aspect of the invention, the color information detecting means detects the number of colors as a ratio of the sum of the color components of the three primary colors existing in the image data to be corrected.

【0013】請求項8記載の発明は、請求項3記載の発
明において、第一ニューラルネットワークが、形状を予
め設定された複数の候補の確率の割合として判別する。
According to the invention of claim 8, in the invention of claim 3, the first neural network discriminates the shape as a ratio of the probabilities of a plurality of preset candidates.

【0014】[0014]

【作用】請求項1記載の発明では、画面の画像データが
データ入力手段により入力されると、この画面の画像デ
ータから予め設定された補正対象の画像データが画像認
識手段により認識され、この認識された補正対象の画像
データが画像補正手段により補正される。この補正対象
の画像データが補正された画面の画像データがデータ出
力手段により出力されるので、入力された状態より補正
対象の画像データが補正された画面の画像データが出力
される。
According to the invention described in claim 1, when the image data of the screen is inputted by the data input means, the image data of the correction target which has been preset from the image data of the screen is recognized by the image recognition means, and this recognition is performed. The corrected image data to be corrected is corrected by the image correction means. Since the image data of the screen in which the image data of the correction target is corrected is output by the data output unit, the image data of the screen in which the image data of the correction target is corrected is output from the input state.

【0015】請求項2記載の発明では、画像認識手段
が、ニューラルネットワークを用いて補正対象の画像デ
ータを認識するので、自動的に補正対象の画像データを
認識することができる。
According to the second aspect of the present invention, since the image recognition means recognizes the image data to be corrected by using the neural network, it is possible to automatically recognize the image data to be corrected.

【0016】請求項3記載の発明では、第一ニューラル
ネットワークにより補正対象の画像データから予め設定
された形状が識別されると、この識別された形状に従っ
て補正対象の画像データが第二ニューラルネットワーク
により判別されるので、補正対象の画像データが形状に
従って良好に認識される。
According to the third aspect of the present invention, when the preset shape is identified from the image data to be corrected by the first neural network, the image data to be corrected is detected by the second neural network according to the identified shape. Since it is determined, the image data to be corrected is well recognized according to the shape.

【0017】請求項4記載の発明では、色情報検出手段
により補正対象の画像データの色割合が検出されて第二
ニューラルネットワークに入力されるので、この第二ニ
ューラルネットワークは補正対象の画像データを形状と
色割合とにより良好に識別する。
According to the fourth aspect of the invention, the color information detecting means detects the color ratio of the image data to be corrected and inputs it to the second neural network, so that the second neural network outputs the image data to be corrected. Good discrimination by shape and color ratio.

【0018】請求項5記載の発明では、色情報検出手段
により色割合が補正対象の画像データに存在する三原色
の色成分の割合として出力されるので、色割合の検出が
簡易に実行される。
According to the invention of claim 5, the color information detecting means outputs the color ratio as the ratio of the color components of the three primary colors existing in the image data to be corrected, so that the color ratio can be easily detected.

【0019】請求項6記載の発明では、色情報検出手段
により補正対象の画像データの色個数と色割合とが第二
ニューラルネットワークに入力されるので、この第二ニ
ューラルネットワークは補正対象の画像データを形状と
色割合と色個数とにより良好に識別する。
According to the sixth aspect of the present invention, the color information detecting means inputs the number of colors and the color ratio of the image data to be corrected into the second neural network. Can be satisfactorily identified by the shape, the color ratio, and the number of colors.

【0020】請求項7記載の発明では、色情報検出手段
により色個数が補正対象の画像データに存在する三原色
の色成分の和の割合として検出されるので、色個数の検
出が簡易に実行される。
In the invention according to claim 7, since the color information detecting means detects the number of colors as a ratio of the sum of the color components of the three primary colors existing in the image data to be corrected, the number of colors can be easily detected. It

【0021】請求項8記載の発明では、第一ニューラル
ネットワークにより、形状が予め設定された複数の候補
の確率の割合として判別されるので、物体の形状の識別
が簡易に実行される。
In the eighth aspect of the present invention, the shape is discriminated by the first neural network as the ratio of the probabilities of a plurality of preset candidates, so that the shape of the object is easily identified.

【0022】[0022]

【実施例】本発明の一実施例を図面に基づいて以下に説
明する。まず、本実施例の画像処理装置であるデジタル
複写機1は、原稿の画面を読取走査してフルカラーの画
像データを入力し、この画像データを印刷用紙に複写し
て出力するが、この画面の画像データに予め設定された
補正対象の画像データが存在した場合、この補正対象の
画像データのみを強調した画面の画像データを印刷出力
することができる。この場合、補正対象の画像データと
は、ユーザが画像処理を要望する特定の画像であり、一
般的には特定の物体として設定される。
An embodiment of the present invention will be described below with reference to the drawings. First, the digital copying machine 1 which is the image processing apparatus of the present embodiment reads and scans a screen of an original document, inputs full-color image data, and copies the image data to a print sheet for output. When the image data includes preset image data to be corrected, it is possible to print out the image data of the screen in which only the image data to be corrected is emphasized. In this case, the image data to be corrected is a specific image requested by the user for image processing, and is generally set as a specific object.

【0023】このため、本実施例のデジタル複写機1
は、図2に示すように、データ入力手段2、演算処理手
段3、データ格納手段4、プログラム格納手段5、被制
御量検知手段6、状態量検知手段7、データ出力手段
8、操作入力手段9、を有している。ここで、これらの
各種手段の機能を構成として以下に順次説明する。
Therefore, the digital copying machine 1 of this embodiment is
As shown in FIG. 2, the data input means 2, the arithmetic processing means 3, the data storage means 4, the program storage means 5, the controlled quantity detection means 6, the state quantity detection means 7, the data output means 8, and the operation input means. 9. Here, the functions of these various means will be sequentially described below as a configuration.

【0024】まず、前記データ入力手段2は、カラー対
応のイメージスキャナなどからなり、原稿の読取走査な
どにより、原稿の画面の画像データを三原色であるRG
B(Red,Green,Blue)の色成分により 256色カラー画像
として入力する。前記演算処理手段3は、CPU(Centr
al Processing Unit)などからなり、画像データの補正
などの各種のデータ処理を実行する。前記データ格納手
段4は、RAM(Random Access Memory)などからなり、
前記演算処理手段3の処理データなどの各種データを更
新自在に一時記憶する。前記プログラム格納手段5は、
ROM(Read Only Memory)などからなり、前記演算処理
手段3の制御プログラムなどの各種データを固定的に予
め記憶している。
First, the data input means 2 is composed of a color-compatible image scanner or the like, and the image data of the screen of the original is RG in three primary colors by reading and scanning the original.
Input as a 256-color image by the color components of B (Red, Green, Blue). The arithmetic processing means 3 is a CPU (Centr).
al Processing Unit) and performs various data processing such as image data correction. The data storage means 4 comprises a RAM (Random Access Memory) or the like,
Various data such as the processing data of the arithmetic processing means 3 is temporarily stored in an updatable manner. The program storage means 5 is
It is composed of a ROM (Read Only Memory) or the like, and fixedly stores various data such as a control program of the arithmetic processing means 3 in advance.

【0025】前記被制御量検知手段6と前記状態量検知
手段7とは、回路センサ、電位センサ、Pセンサ、印刷
濃度センサ、等からなり、制御対象となる前記データ出
力手段8などの被制御量と、これに関与する状態量とを
各々検知する。このデータ出力手段8は、フルカラー対
応のレーザプリンタなどからなり、画像データをYMC
K(Yellow,Magenta,Cyanide,Black)のカラートナーによ
り印刷用紙に 256色のカラー画像として印刷出力する。
前記操作入力手段9は、タッチパネルなどからなり、動
作モードの変更や複写動作の開始などの各種データを入
力操作することができ、動作状態やエラー内容などの各
種データを表示出力することができる。
The controlled amount detecting means 6 and the state amount detecting means 7 are composed of a circuit sensor, a potential sensor, a P sensor, a print density sensor, etc., and are controlled by the data output means 8 to be controlled. The quantity and the state quantity involved in the quantity are respectively detected. The data output means 8 is composed of a full color compatible laser printer or the like and outputs image data to YMC.
The color toner of K (Yellow, Magenta, Cyanide, Black) is used to print out as a color image of 256 colors on the printing paper.
The operation input means 9 is composed of a touch panel or the like, can input and operate various data such as change of operation mode and start of copy operation, and can display and output various data such as operation state and error content.

【0026】本実施例のデジタル複写機1は、前記デー
タ入力手段2により入力された画像データを前記データ
出力手段8から出力することができ、この過程において
前記プログラム格納手段5に格納されたプログラムに従
って前記演算処理手段3により画像データに画像処理を
実行することができる。
The digital copying machine 1 of this embodiment can output the image data input by the data input means 2 from the data output means 8. In this process, the program stored in the program storage means 5 is stored. Accordingly, the image processing can be performed on the image data by the arithmetic processing means 3.

【0027】このため、本実施例のデジタル複写機1
は、図1に示すように、画像認識手段10と画像補正手
段11とを有している。前記画像認識手段10は、詳細
には後述するように、前記データ入力手段2が原稿から
入力した画面の画像データから、補正対象として予め設
定された“缶,テーブル,椅子,ビル”などの物体の画
像データを認識する。前記画像補正手段11は、画面の
画像データに対し、認識された物体の画像データのみ
を、予め設定された画像処理により補正する。
Therefore, the digital copying machine 1 of the present embodiment
Has an image recognition means 10 and an image correction means 11, as shown in FIG. As will be described later in detail, the image recognizing means 10 is an object such as “can, table, chair, building” which is preset as a correction target based on the image data of the screen input from the document by the data input means 2. Recognize the image data of. The image correction means 11 corrects only the image data of the recognized object with respect to the image data of the screen by preset image processing.

【0028】そして、前記画像認識手段10は、文字絵
柄分別手段、物体領域抽出手段、物体領域分割手段、第
一ニューラルネットワーク12、候補選択手段13、色
情報検出手段14、第二ニューラルネットワーク15を
有している。
The image recognition means 10 includes a character / pattern classification means, an object area extraction means, an object area division means, a first neural network 12, a candidate selection means 13, a color information detection means 14, and a second neural network 15. Have

【0029】前記文字絵柄分別手段は、前記データ入力
手段2が原稿から入力した画像データを文字部分と絵柄
部分とに分別し、絵柄部分を画面の画像データとして前
記物体領域抽出手段に出力する。この物体領域抽出手段
は、画面の画像データから予め設定された物体の画像デ
ータを物体領域として抽出し、この物体領域の濃淡を前
記第一ニューラルネットワーク12の識別に適正なサイ
ズに変換してから前記物体領域分割手段に出力する。こ
の物体領域分割手段は、物体領域の画像データを“4×
4”のエリアに分割し、これらのエリアの濃淡の比率を
エリアデータとして前記第一ニューラルネットワーク1
2と前記色情報検出手段14とに出力する。
The character / pattern classification means separates the image data input from the document by the data input means 2 into a character portion and a pattern portion, and outputs the pattern portion to the object area extraction means as image data of the screen. The object area extracting means extracts the image data of a preset object from the image data on the screen as an object area, converts the shading of the object area into a size suitable for identifying the first neural network 12, and It is output to the object area dividing means. The object region dividing means converts the image data of the object region into “4 ×
The first neural network 1 is divided into 4 "areas and the ratio of shading of these areas is used as area data.
2 and the color information detecting means 14.

【0030】前記第一ニューラルネットワーク12は、
入力層16と中間層17と出力層18との階層構造によ
り形成されており、これらの各層16〜18は、シナプ
ス19により接続された複数のニューロン20からな
る。前記入力層16は、エリアデータに対応した16個の
ニューロン20からなり、前記出力層18は、物体の画
像データから識別する形状として予め設定された“丸,
楕円,三角,四角”に対応した4個のニューロン20か
らなる。このため、前記第一ニューラルネットワーク1
2は、エリアデータの入力に対応して“丸,楕円,三
角,四角”の各々の確率を出力することにより、物体の
画像データから予め設定された形状を識別する。
The first neural network 12 is
The input layer 16, the intermediate layer 17, and the output layer 18 are formed by a hierarchical structure, and each of these layers 16 to 18 is composed of a plurality of neurons 20 connected by synapses 19. The input layer 16 is composed of 16 neurons 20 corresponding to area data, and the output layer 18 is a "circle," which is preset as a shape to be identified from image data of an object.
It is composed of four neurons 20 corresponding to "ellipse, triangle, square". Therefore, the first neural network 1
2 identifies the preset shape from the image data of the object by outputting the probabilities of “circle, ellipse, triangle, and quadrangle” in response to the input of the area data.

【0031】前記ニューロン20は、図3に示すよう
に、多入力一出力の非線形素子であり、入力側の複数の
シナプス19の各々に結合係数ωが可変自在に設定され
ている。i番目のシナプス19に信号yiが入力される
と、そのシナプス19には結合係数ωiが設定されてい
るので、これらに対応して一つの信号xが出力側の複数
のシナプス19の各々に出力される。本実施例では前記
ニューロン20として離散時間モデルを採用しているの
で、時刻(t+1)における前記ニューロン20の出力値x
(t+1)は下記のようになる。
As shown in FIG. 3, the neuron 20 is a multi-input / single-output non-linear element, and the coupling coefficient ω is variably set for each of the plurality of synapses 19 on the input side. When the signal yi is input to the i-th synapse 19, since the coupling coefficient ωi is set in the synapse 19, one signal x is output to each of the plurality of synapses 19 on the output side correspondingly. To be done. In this embodiment, since the discrete time model is adopted as the neuron 20, the output value x of the neuron 20 at time (t + 1)
(t + 1) is as follows.

【0032】[0032]

【数1】 [Equation 1]

【0033】f:出力関数 θ:閾値 N:階層数 ε:出力関数の非線形性を決定する非負のパラメータ なお、“ε−>+0”の場合、出力関数fは単位ステッ
プ関数となり、前記ニューロン20の各々の出力値は
“1,0”の二値で興奮(発火)状態と静止(非発火)
状態とを表現する。
F: output function θ: threshold value N: number of layers ε: non-negative parameter that determines the nonlinearity of the output function When “ε −> + 0”, the output function f becomes a unit step function and the neuron 20 The output value of each is a binary value of "1, 0" and is in an excited (firing) state and stationary (non-firing)
Express the state and.

【0034】なお、本実施例のデジタル複写機1では、
前記ニューラルネットワーク12,15をバックプロパ
ゲーションにより学習させる。この場合、前記シナプス
19の結合係数ωiや前記ニューロン20の閾値θを変
更することにより、学習や組織化を実現する。前記シナ
プス19の結合係数ωiは、下記のようになる。
In the digital copying machine 1 of this embodiment,
The neural networks 12 and 15 are trained by back propagation. In this case, learning and organization are realized by changing the coupling coefficient ωi of the synapse 19 and the threshold value θ of the neuron 20. The coupling coefficient ωi of the synapse 19 is as follows.

【0035】[0035]

【数2】 [Equation 2]

【0036】k:パラメータ(0<k<1) c:パラメータ(0<c) δi:出力層iから逆伝播する学習信号 di:教師信号 f′:出力関数の微分 つまり、入力信号と理想的な出力信号である教師信号と
を予め組み合わせておき、この入力信号に対する前記ニ
ューラルネットワーク12,15の出力信号を教師信号
と比較し、この誤差を学習信号として出力層18,23
から入力層16,,21まで逆伝播させる。このことに
より、入力信号に対して出力信号が教師信号に収束する
よう前記シナプス19の結合係数ωが変更されるので、
前記ニューラルネットワーク12,15は理想的な出力
信号を発生するよう学習する。
K: parameter (0 <k <1) c: parameter (0 <c) δi: learning signal back-propagating from the output layer i di: teacher signal f ′: differentiation of output function That is, the input signal and the ideal signal Output signal of the neural networks 12 and 15 with respect to this input signal is compared with the teacher signal, and this error is used as a learning signal in the output layers 18 and 23.
To the input layers 16 and 21 through back propagation. As a result, the coupling coefficient ω of the synapse 19 is changed so that the output signal converges to the teacher signal with respect to the input signal.
The neural networks 12 and 15 are trained to generate an ideal output signal.

【0037】前記色情報検出手段14は、エリアデータ
から色割合と色個数とを検出し、これらを前記第二ニュ
ーラルネットワーク15に出力する。色割合は、物体の
画像データの主要な三つの色成分の割合として設定され
ており、色個数は、物体の画像データを形成する色成分
の個数であるが、ここでは表現できる色成分の総数(256
個)との比率として設定されているので、以下では色数
比として表現する。
The color information detecting means 14 detects the color ratio and the number of colors from the area data and outputs them to the second neural network 15. The color ratio is set as the ratio of the three main color components of the image data of the object, and the number of colors is the number of color components forming the image data of the object, but here the total number of color components that can be expressed. (256
Since it is set as a ratio with the number of colors), it will be expressed as a color number ratio below.

【0038】前記候補選択手段13は、前述のように、
前記第一ニューラルネットワーク12が出力する“丸,
楕円,三角,四角”の各々の確率から上位の三つを選択
し、これを物体の画像データから識別した形状として前
記第二ニューラルネットワーク15の第一から第三の入
力部に確率の順番で出力する。
The candidate selecting means 13 is, as described above,
The “circle, which the first neural network 12 outputs,
From the probabilities of “ellipse, triangle, and square”, the top three are selected, and the shapes identified as these from the image data of the object are input to the first to third input parts of the second neural network 15 in order of probability. Output.

【0039】この第二ニューラルネットワーク15も、
前記第一ニューラルネットワーク12と同様に、入力層
21と中間層22と出力層23との階層構造により形成
されており、これらの各層21〜23は、シナプス19
により接続された複数のニューロン20からなる。前記
入力層21は、前記候補選択手段13と前記色情報検出
手段14との出力信号に対応した7個のニューロン20
からなり、前記出力層23は、物体の画像データの判別
結果である“缶,テーブル,椅子,ビル”に対応した4
個のニューロン20からなる。
This second neural network 15 also
Like the first neural network 12, the input layer 21, the intermediate layer 22, and the output layer 23 are formed in a hierarchical structure, and each of these layers 21 to 23 is a synapse 19.
It consists of a plurality of neurons 20 connected by. The input layer 21 has seven neurons 20 corresponding to the output signals of the candidate selecting means 13 and the color information detecting means 14.
The output layer 23 corresponds to "cans, tables, chairs, buildings" which are the discrimination results of the image data of the object.
It consists of 20 neurons.

【0040】このため、前記第二ニューラルネットワー
ク15は、前記第一ニューラルネットワーク12により
識別されて前記候補選択手段13により選択された形状
と、前記色情報検出手段14により検出された物体の画
像データの色割合と色数比とに従って、ニューラル演算
により物体の画像データを判別する。従って、前記ニュ
ーラルネットワーク12,15や前記色情報検出手段1
4等からなる前記画像認識手段10により、入力された
画面の画像データから予め設定された物体の画像データ
が認識される。
Therefore, the second neural network 15 has the shape identified by the first neural network 12 and selected by the candidate selecting means 13 and the image data of the object detected by the color information detecting means 14. The image data of the object is discriminated by a neural calculation according to the color ratio and the color number ratio. Therefore, the neural networks 12, 15 and the color information detecting means 1
The image recognition means 10 composed of 4 or the like recognizes preset image data of the object from the image data of the input screen.

【0041】前記画像補正手段11は、“缶,テーブ
ル,椅子,ビル”の一つとして認識された物体の画像デ
ータを、これらの物体毎に予め設定された特徴データに
従って画像処理するので、前記データ出力手段8は、物
体の画像データが補正された画面の画像データを印刷出
力する。例えば、物体の画像データがテーブルの場合、
前記画像補正手段11は直線部のシャープ性を強調し、
前記データ出力手段8は直線部のエッジの露光量を調節
する。さらに、前記画像補正手段11はテーブルの脚の
根本の部分などに陰影を追加し、前記データ出力手段8
は陰影の部分の露光量の強弱を強調してブラックトナー
の濃度を増加させる。
The image correction means 11 performs image processing on the image data of the object recognized as one of "can, table, chair, building" according to the characteristic data preset for each of these objects. The data output means 8 prints out the image data of the screen in which the image data of the object is corrected. For example, if the image data of the object is a table,
The image correction means 11 emphasizes the sharpness of the straight line portion,
The data output means 8 adjusts the exposure amount of the edge of the straight line portion. Further, the image correction means 11 adds a shadow to the root portion of the leg of the table, and the data output means 8
Increases the density of the black toner by emphasizing the intensity of the exposure amount in the shaded area.

【0042】前記画像補正手段11による物体の画像デ
ータの画像処理は、所望により各種形態に設定できる
が、ここでは一般論として物体の見栄えが良くなるよう
に、予め考慮されて設定されている。また、本実施例の
デジタル複写機1は、物体の画像データの画像処理に関
連した各種手段として、段階指定手段、補正調節手段、
物体指定手段、補正制御手段などを有している。
The image processing of the image data of the object by the image correction means 11 can be set in various forms as desired, but here, as a general theory, it is set in consideration so that the object looks good. In addition, the digital copying machine 1 of the present embodiment includes a stage designating means, a correction adjusting means, as various means related to the image processing of the image data of the object.
It has an object designation means, a correction control means, and the like.

【0043】前記段階指定手段は、物体の画像データの
画像処理の度合を、前記操作入力手段9の入力操作によ
り“強,中,弱”などのように段階的に指定することが
でき、前記補正調節手段は、指定された段階に物体の画
像データの画像処理の度合を調節する。前記物体指定手
段は、画像処理する画像データの物体を、前記操作入力
手段9の入力操作により“テーブルのみ”や“椅子以
外”などとして設定する指定することができ、前記補正
制御手段は、指定内容に画像処理する物体の画像データ
を制限する。
The stage designating means can designate the degree of image processing of the image data of the object stepwise such as "strong, medium, weak" by the input operation of the operation inputting means 9. The correction adjusting unit adjusts the degree of image processing of the image data of the object at a designated stage. The object designating unit can designate that the object of the image data to be image-processed is set as “table only” or “other than chair” by the input operation of the operation inputting unit 9, and the correction control unit designates The image data of the object to be image-processed is limited to the content.

【0044】このような構成において、本実施例のデジ
タル複写機1は、図6に示すように、動作モードとして
通常複写モードが設定されている状態では、従来と同様
に、データ入力手段2により原稿を読取走査して画像デ
ータを入力し、この画像データをデータ出力手段8によ
り印刷用紙に印刷出力する。
With such a configuration, the digital copying machine 1 of the present embodiment, as shown in FIG. 6, operates in the normal copying mode as the operation mode by the data input means 2 as in the conventional case. The document is read and scanned to input image data, and the image data is printed out by a data output means 8 on a printing paper.

【0045】そして、動作モードとして物体補正モード
が設定された状態では、上述のように原稿の画像データ
を印刷用紙に複写する過程において、図7及び図8に示
すように、画像認識手段10により画面の画像データか
ら物体の画像データを認識し、この物体の画像データを
画像補正手段11により画面の画像データに対して補正
することができる。この場合、原稿から複写された画面
の画像データのうち、特定の物体の画像データのみが補
正されるので、例えば、室内の画像を複写する場合に、
テーブルの画像のみを際立たせるようなことができる。
Then, in the state where the object correction mode is set as the operation mode, in the process of copying the image data of the document on the printing paper as described above, as shown in FIGS. The image data of the object can be recognized from the image data of the screen, and the image data of this object can be corrected by the image correction means 11 with respect to the image data of the screen. In this case, of the image data of the screen copied from the original, only the image data of a specific object is corrected, so, for example, when copying an image in a room,
It is possible to make only the image of the table stand out.

【0046】そこで、このような物体補正モードにおけ
るデジタル複写機1の処理動作を、図6ないし図8に基
づいて以下に順次詳述する。まず、本実施例のデジタル
複写機1は、認識して補正する物体として“缶,テーブ
ル,椅子,ビル”が予め設定されている。
Therefore, the processing operation of the digital copying machine 1 in such an object correction mode will be sequentially described in detail below with reference to FIGS. 6 to 8. First, in the digital copying machine 1 of the present embodiment, "cans, tables, chairs, buildings" are preset as objects to be recognized and corrected.

【0047】そして、図6に示すように、初期設定にお
いて操作入力手段9を入力操作し、物体補正モードを動
作モードとして設定し、所望により物体の画像データの
度合を指定し、画像処理する物体を指定する。そして、
物体の画像データが画面に記載された原稿をデータ入力
手段2により読取走査させると、この読取走査により原
稿から物体の画像データを含む画面の画像データが入力
される。この時、物体補正モードの設定の有無が判断さ
れ、モード設定が判断されると処理動作として物体補正
が実行される。
Then, as shown in FIG. 6, in the initial setting, the operation input means 9 is input and operated, the object correction mode is set as the operation mode, the degree of the image data of the object is designated if desired, and the object to be image-processed. Is specified. And
When the data input means 2 scans and scans a document in which the image data of the object is written on the screen, the image data of the screen including the image data of the object is input from the document by this scanning. At this time, it is determined whether or not the object correction mode is set, and when the mode setting is determined, the object correction is executed as a processing operation.

【0048】すると、図7に示すように、文字絵柄分別
手段は、画面の画像データを文字部分と絵柄部分とに分
別し、この絵柄部分を画面の画像データとして物体領域
抽出手段に出力する。この時、文字絵柄分別手段は、画
像データの隣接する画素の濃淡差を調査し、高い濃淡差
が連続すると文字部分、低い濃淡差が連続すると絵柄部
分、として画像データを文字部分と絵柄部分とに分別す
る。なお、文字部分の画像データは、物体の画像データ
が存在しないので、本案には無関係として説明は割愛す
る。
Then, as shown in FIG. 7, the character / pattern classification means separates the image data on the screen into a character portion and a pattern portion, and outputs this pattern portion to the object area extraction means as image data on the screen. At this time, the character / pattern classification means examines the grayscale difference between adjacent pixels of the image data, and if the high grayscale difference is continuous, the character part is obtained. Sort into. Since the image data of the character portion does not exist as the image data of the object, the description is omitted because it is irrelevant to the present invention.

【0049】つぎに、図8に示すように、物体領域抽出
手段は、絵柄部分からなる画面の画像データから空白や
背景を検出し、図4(a)に示すように、これを画面の
画像データの外周部から順次排除する。すると、物体の
画像データが存在する最小領域が物体領域として抽出さ
れるので、この物体領域の濃淡を予め設定されたサイズ
に変換する。このサイズは、第一ニューラルネットワー
ク12が物体の識別の学習に使用したサイズであり、例
えば、物体領域の任意のラインの全長が3cmで濃淡(物
体の画像データと想定される)が1cm、学習時の領域の
ラインが6cmならば、物体領域の1cmの濃淡を2cmに変
換する。
Next, as shown in FIG. 8, the object area extracting means detects a blank or a background from the image data of the screen consisting of the picture part, and as shown in FIG. It is sequentially excluded from the outer peripheral portion of the data. Then, since the minimum area in which the image data of the object exists is extracted as the object area, the shading of this object area is converted into a preset size. This size is a size used by the first neural network 12 for learning to identify an object. For example, the total length of an arbitrary line in the object region is 3 cm, and the density (assumed to be image data of the object) is 1 cm. If the line of the time area is 6 cm, then the 1 cm shading of the object area is converted to 2 cm.

【0050】つぎに、物体領域分割手段は、図4(b)
に示すように、物体領域の画像データを“4×4”のエ
リアに分割し、これらのエリアの濃淡の比率をエリアデ
ータとして第一ニューラルネットワーク12と色情報検
出手段14とに出力する。なお、この時、あるエリアの
濃淡の比率が 30(%)ならば、これは 0.3として出力さ
れる。
Next, the object area dividing means is shown in FIG.
As shown in FIG. 3, the image data of the object area is divided into “4 × 4” areas, and the ratio of shading of these areas is output to the first neural network 12 and the color information detecting means 14 as area data. At this time, if the shade ratio of a certain area is 30 (%), this is output as 0.3.

【0051】そこで、図7に示すように、第一ニューラ
ルネットワーク12は、物体の画像データに対応した16
個のエリアデータが入力されると、ニューラル演算によ
り“丸,楕円,三角,四角”の確率を算定する。この確
率は、例えば、丸である可能性が70%、楕円である可能
性が20%、三角である可能性が8%、四角である可能性
が2%、のように合計 100%となるよう出力される。
Therefore, as shown in FIG. 7, the first neural network 12 corresponds to the image data of the object 16
When individual area data are input, the probability of "circle, ellipse, triangle, square" is calculated by neural calculation. The probability is 70% for a circle, 20% for an ellipse, 8% for a triangle, 2% for a square, and 100% in total. Is output.

【0052】すると、候補選択手段13は、第一ニュー
ラルネットワーク12が出力する四つの確率から上位の
三つを選択し、これを物体の画像データから識別した形
状として、第二ニューラルネットワーク15の入力層2
1の第一から第三のニューロン20に、確率の順番で出
力する。つまり、第一ニューラルネットワーク12が識
別する四つの形状には、丸→ 0.1,楕円→ 0.3,三角→
0.7,四角→ 1.0,のように、予め識別子が設定されて
いるので、丸の確率が最大ならば、第二ニューラルネッ
トワーク15の入力層21の第一のニューロン20には
“主な形1”として 0.1が出力される。
Then, the candidate selecting means 13 selects the upper three from the four probabilities output from the first neural network 12, and inputs them to the second neural network 15 as a shape identified from the image data of the object. Layer 2
The first to third neurons 20 of 1 are output in the order of probability. That is, the four shapes identified by the first neural network 12 are circle → 0.1, ellipse → 0.3, triangle →
Since the identifier is set in advance such as 0.7, square → 1.0, if the probability of the circle is maximum, the “main shape 1” is assigned to the first neuron 20 of the input layer 21 of the second neural network 15. Is output as 0.1.

【0053】一方、色情報検出手段14は、16個のエリ
アデータから色数比と色割合とを検出し、これらを第二
ニューラルネットワーク15の入力層21の第四から第
七のニューロン20に出力する。色数比は、物体の画像
データを形成する色成分の個数と、全体の色成分の個数
(256個)との比率として検出されるので、エリアデータ
を形成する画素単位で色成分の個数を積算し、この個数
を全体の個数 256で除算した数値として出力される。例
えば、物体領域の画像データが 128色で表現されている
ならば、エリアデータを形成する色成分の個数は 128で
あるので、色数比は“ 128/256 =0.5 ”となる。
On the other hand, the color information detecting means 14 detects the color number ratio and the color ratio from the 16 area data, and outputs these to the fourth to seventh neurons 20 of the input layer 21 of the second neural network 15. Output. The color number ratio is the number of color components forming the image data of the object and the number of all color components.
Since it is detected as a ratio with (256), the number of color components is added up for each pixel forming the area data, and this number is divided by the total number of 256 and output. For example, if the image data of the object area is represented by 128 colors, the number of color components forming the area data is 128, and the color number ratio is "128/256 = 0.5".

【0054】また、色割合は、物体の画像データの代表
的な三色の割合として検出されるので、エリアデータを
形成する画素単位で 256色の色成分の各々の個数を積算
し、その上位三つの色成分の識別子として出力される。
このため、 256個の色成分には(赤:0.1 紫:0.2 黄:
0.3 緑:0.4…)のように識別子が個々に設定されてお
り、例えば、エリアデータの最多の色成分が赤ならば、
色割合の一つとして第二ニューラルネットワーク15の
入力層21の第五のニューロン20には“主な色1”と
して 0.1が出力される。
Since the color ratio is detected as a ratio of three representative colors of the image data of the object, the number of each of the 256 color components is integrated in the pixel unit forming the area data, and the higher order It is output as an identifier of the three color components.
Therefore, 256 color components have (red: 0.1 purple: 0.2 yellow:
The identifiers are individually set like 0.3 green: 0.4 ...). For example, if the most color component of area data is red,
As one of the color ratios, 0.1 is output as "main color 1" to the fifth neuron 20 of the input layer 21 of the second neural network 15.

【0055】上述のように、第二ニューラルネットワー
ク15の入力層21に、物体の画像データの識別結果と
色数比と色割合とが入力されると、そのニューラル演算
により出力層23には物体の画像データの判別結果が出
力される。この出力層23の4個のニューロン20に
は、物体の画像データの判別結果となる“缶,テーブ
ル,椅子,ビル”が個々に予め設定されているので、こ
れら4個のニューロン20の各々に出力される確率が最
大のものとして、物体の画像データが判別される。な
お、第二ニューラルネットワーク15が出力する最大の
確率が60%に到達しない場合は、物体の画像データは
“缶,テーブル,椅子,ビル”の何れでも無いものとし
て、以下の処理は中止される。
As described above, when the identification result of the image data of the object, the color number ratio and the color ratio are input to the input layer 21 of the second neural network 15, the object is output to the output layer 23 by the neural calculation. The determination result of the image data is output. Since "can, table, chair, building" which is the discrimination result of the image data of the object is preset in each of the four neurons 20 of the output layer 23, each of the four neurons 20 is set in advance. The image data of the object is determined to have the highest output probability. If the maximum probability output by the second neural network 15 does not reach 60%, it is determined that the image data of the object is neither "can, table, chair, building", and the following processing is stopped. .

【0056】そして、上述のようにニューラルネットワ
ーク12,15や色情報検出手段14等からなる画像認
識手段10により、入力された画面の画像データから物
体の画像データが“缶,テーブル,椅子,ビル”の一つ
として認識されると、画像補正手段11は、認識された
物体の画像データを各々に予め設定された特徴データに
従って画像処理するので、データ出力手段8が印刷出力
する画面の画像データの物体の画像データが補正され
る。
Then, as described above, the image recognition means 10 including the neural networks 12 and 15 and the color information detection means 14 converts the image data of the input image data into "can, table, chair, building". When the image data of the object is recognized, the image correction unit 11 performs image processing on the image data of the recognized object according to the characteristic data set in advance, so that the image data of the screen printed out by the data output unit 8 is displayed. The image data of the object is corrected.

【0057】例えば、物体の画像データがテーブルの場
合、画像補正手段11は直線部のシャープ性を強調する
と共に、テーブルの脚の根本の部分などに陰影を追加す
る。すると、データ出力手段8は、直線部のエッジの露
光量を調節すると共に、陰影の部分の露光量の強弱を強
調してブラックトナーの濃度を増加させる。このため、
印刷出力される画面の画像データにおいて、テーブルの
画像データは、見栄えの良い形状に補正され、立体感や
存在感が強調される。同様に、物体の画像データが缶の
場合は、円弧部分がスムージングされると共に陰影が追
加されるので、やはり見栄えの良い形状に補正されて立
体感や存在感が強調される。
For example, when the image data of the object is a table, the image correction means 11 emphasizes the sharpness of the straight line portion and adds a shadow to the root of the table or the like. Then, the data output unit 8 adjusts the exposure amount of the edge of the straight line portion and emphasizes the intensity of the exposure amount of the shaded portion to increase the density of the black toner. For this reason,
In the image data of the screen that is printed out, the image data of the table is corrected to a shape that looks good, and the stereoscopic effect and presence are emphasized. Similarly, when the image data of the object is a can, since the arc portion is smoothed and the shadow is added, the shape is also corrected to a good-looking shape and the stereoscopic effect and presence are emphasized.

【0058】つまり、本実施例のデジタル複写機1は、
複写する原稿の画面の画像データに“缶,テーブル,椅
子,ビル”の物体の画像データが存在するならば、これ
が画像認識手段10により認識されて画像補正手段11
により補正されるので、複写される画面の画像データの
うち物体の画像データのみが見栄えの良い形状に補正さ
れる。
That is, the digital copying machine 1 of this embodiment is
If the image data of the screen of the document to be copied includes the image data of the object "can, table, chair, building", this is recognized by the image recognition means 10 and the image correction means 11 is detected.
The image data of the object is corrected to a good-looking shape among the image data of the screen to be copied.

【0059】この時、従来のデジタル複写機のように、
画面の画像データの全体に一様に画像処理が実行され
ず、物体の画像データのみが画像処理されるので、全体
の再現性が低下することがない。さらに、物体の画像デ
ータの画像処理は、動作モードの設定のみで自動的に実
行され、従来のDTPシステムなどのように複雑な操作
を要しないので、一般ユーザでも容易に実行することが
できる。
At this time, like a conventional digital copying machine,
Image processing is not uniformly performed on the entire image data of the screen, and only the image data of the object is image-processed, so that the reproducibility of the entire image does not deteriorate. Further, the image processing of the image data of the object is automatically executed only by setting the operation mode, and does not require a complicated operation unlike the conventional DTP system, so that it can be easily executed by a general user.

【0060】特に、画像認識手段10がニューラルネッ
トワーク12,15を有するので、物体の画像データの
自動的な認識が良好に実行され、学習を繰り返すことに
より物体の認識精度を向上させることができる。しか
も、画像認識手段10には、物体の画像データの形状を
識別する第一ニューラルネットワーク12と、物体の画
像データを判別する第二ニューラルネットワーク15と
が存在するので、物体の画像データが形状に従って良好
に認識される。
In particular, since the image recognizing means 10 has the neural networks 12 and 15, automatic recognition of the image data of the object is satisfactorily executed, and the accuracy of recognizing the object can be improved by repeating the learning. Moreover, since the image recognition means 10 has the first neural network 12 for identifying the shape of the image data of the object and the second neural network 15 for determining the image data of the object, the image data of the object follows the shape. Well recognized.

【0061】また、本実施例のデジタル複写機1は、原
稿の画像データをフルカラーで複写するように形成され
ており、物体の画像データの色割合と色数比も第二ニュ
ーラルネットワーク15に入力されるので、この第二ニ
ューラルネットワーク15は、より良好に物体の画像デ
ータを識別することができる。なお、本発明は上記実施
例に限定されるものではなく、例えば、白黒専用の画像
処理装置において、形状のみから物体の画像データを識
別することも可能である。
Further, the digital copying machine 1 of the present embodiment is formed so as to copy the image data of the original document in full color, and the color ratio and the color number ratio of the image data of the object are also input to the second neural network 15. Therefore, the second neural network 15 can better identify the image data of the object. It should be noted that the present invention is not limited to the above-described embodiment, and for example, in an image processing device dedicated to black and white, it is possible to identify the image data of the object only from the shape.

【0062】さらに、本実施例のデジタル複写機1で
は、物体の画像データの色割合を検出する場合に、物体
の画像データの画素単位で 256色の色成分の各々の個数
を積算し、上位の色成分を順番に選択することにより、
これを色割合として出力することを例示したが、本発明
は上記実施例に限定されるものでもない。例えば、物体
の画像データに存在する三原色の色成分の割合として色
割合を検出すれば、データ入力手段2が読取走査した画
像データから色割合を直接に算出できるので、画素単位
で色成分を判別して積算する必要が無く、色割合を簡易
に出力することができる。
Further, in the digital copying machine 1 of the present embodiment, when detecting the color ratio of the image data of the object, the number of each of the 256 color components is integrated in pixel units of the image data of the object, By selecting the color components of in order,
Although the output of the color ratio is output as an example, the present invention is not limited to the above embodiment. For example, if the color ratio is detected as the ratio of the color components of the three primary colors existing in the image data of the object, the color ratio can be directly calculated from the image data read and scanned by the data input unit 2, so that the color component is determined pixel by pixel. Therefore, it is not necessary to integrate the values, and the color ratio can be easily output.

【0063】同様に、本実施例のデジタル複写機1で
は、物体の画像データの色数比を検出する場合に、存在
する色成分の総数を積算し、この個数と全体の色成分の
個数との比率として、色数比を検出することを例示した
が、本発明は上記実施例に限定されるものでもない。例
えば、物体の画像データに存在する三原色の色成分の和
の割合として色数比を検出すれば、データ入力手段2が
読取走査した画像データから色数比を直接に算出できる
ので、画素単位で色成分を判別して積算する必要が無
く、色数比を簡易に出力することができる。
Similarly, in the digital copying machine 1 of this embodiment, when the color number ratio of the image data of the object is detected, the total number of existing color components is integrated, and this number and the total number of color components are calculated. Although the color number ratio is detected as the ratio of the above, the present invention is not limited to the above embodiment. For example, if the color number ratio is detected as the ratio of the sum of the color components of the three primary colors existing in the image data of the object, the color number ratio can be directly calculated from the image data read and scanned by the data input unit 2, and therefore, in pixel units. It is not necessary to determine and integrate the color components, and the color number ratio can be easily output.

【0064】このように色数比を三原色の色成分により
検出する場合、各画素での三原色の割合を四捨五入し、
これが同一のものは一つとして計算する。例えば、ある
三つの画素の各々の三原色の割合が(42, 8,50)(33,
55,12)(44,11,45)の場合、これらを四捨五入すると
(4,1,5)(3,5,1)(4,1,5)となる。する
と、一番目と三番目との画素では三原色の割合が同一な
ので、これは一つとして計算され、三つの画素から検出
される色数比は“2”となる。
When the color number ratio is thus detected by the color components of the three primary colors, the ratio of the three primary colors in each pixel is rounded off,
If they are the same, they are calculated as one. For example, if the ratio of the three primary colors of a certain three pixels is (42, 8, 50) (33,
In the case of 55, 12) (44, 11, 45), these are rounded to (4, 1, 5) (3, 5, 1) (4, 1, 5). Then, since the ratios of the three primary colors are the same in the first and third pixels, this is calculated as one, and the color number ratio detected from the three pixels is "2".

【0065】なお、三原色の色成分としては、一般的に
データ入力手段2が原稿から読み取った画像データのR
GB成分の他、この画像データからデータ出力手段8の
印刷用に生成された画像データのYMC(Yellow,Magent
a,Cyanide)成分も利用可能である。
The color components of the three primary colors are generally R of the image data read from the original by the data input means 2.
In addition to the GB component, YMC (Yellow, Magent) of image data generated from this image data for printing by the data output means 8
a, Cyanide) component is also available.

【0066】さらに、第一ニューラルネットワーク12
は、物体の画像データの形状を、予め設定された複数の
候補の確率の割合として判別するので、物体の形状の識
別が簡易に的確に実行される。また、認識する物体の画
像データの各々に特徴データが予め設定されており、こ
の特徴データに従って画像処理が実行されるので、その
物体に最適な画像処理を実行することができる。
Further, the first neural network 12
Determines the shape of the image data of the object as a ratio of the probabilities of a plurality of preset candidates, so that the shape of the object can be easily and accurately identified. Further, since the feature data is set in advance for each of the image data of the object to be recognized, and the image processing is executed in accordance with this feature data, it is possible to execute the optimum image processing for the object.

【0067】なお、本実施例のデジタル複写機1では、
補正対象である物体の画像データを“缶,テーブル,椅
子,ビル”のように設定したが、本発明は上記実施例に
限定されるものではなく、補正対象の画像データを“林
檎,人,チューリップ,ビル”などのように設定するこ
とも可能である。“缶,テーブル,椅子,ビル”は何れ
も人工物であるので、形状に特徴があるが色彩は任意で
ある。一方、“林檎,人,チューリップ”などは生物で
あるので、形状と共に色彩にも特徴がある。そこで、図
5に示すように、このような物体の画像データを認識し
て画像処理する場合には、本実施例のように形状を補正
することの他、林檎には赤色の増強、人には肌色の増
強、のように色彩を補正することが好ましい。
In the digital copying machine 1 of this embodiment,
The image data of the object to be corrected is set as "can, table, chair, building", but the present invention is not limited to the above-described embodiment, and the image data of the correction object is "apple, person, It is also possible to set such as "tulip, building". Since "cans, tables, chairs, buildings" are all artifacts, they are characterized by their shapes, but their colors are arbitrary. On the other hand, since "apples, people, tulips" are living things, they are also characterized by shape and color. Therefore, as shown in FIG. 5, when the image data of such an object is recognized and image processing is performed, the shape is corrected as in the present embodiment, and the apple is augmented with red and It is preferable to correct the color such as enhancing the skin color.

【0068】つまり、補正する物体の画像データを設定
する場合には、その物体の見栄えが良くなるように画像
処理を設定することが好ましく、このような画像処理が
実行されるよう特徴データを設定することになる。
That is, when setting the image data of the object to be corrected, it is preferable to set the image processing so that the appearance of the object becomes good, and the characteristic data is set so that such image processing is executed. Will be done.

【0069】また、本実施例のデジタル複写機1では、
操作入力手段9により物体の画像データの画像処理の度
合を指定しておくと、この指定された段階に物体の画像
データの画像処理の度合が調節されるので、ユーザの所
望により物体の強調の度合を調節することができる。こ
のような画像処理の度合の指定は予め設定された“強,
中,弱”の選択の他、数値の入力などでも実現できる。
さらに、操作入力手段9により画像処理する物体を指定
しておくと、この指定された物体の画像データのみが画
像処理されるので、ユーザが所望する物体のみ画像処理
を実行することもできる。
Further, in the digital copying machine 1 of this embodiment,
If the degree of image processing of the image data of the object is designated by the operation input means 9, the degree of image processing of the image data of the object is adjusted at this designated stage. The degree can be adjusted. The designation of the degree of such image processing is performed by the preset "strong,
In addition to selecting "medium and weak", you can also enter numerical values.
Furthermore, when an object to be image-processed is designated by the operation input means 9, only the image data of the designated object is image-processed, so that the image processing can be executed only for the object desired by the user.

【0070】[0070]

【発明の効果】請求項1記載の発明は、画面の画像デー
タを入力するデータ入力手段を設け、入力された画面の
画像データから予め設定された補正対象の画像データを
認識する画像認識手段を設け、認識された補正対象の画
像データを補正する画像補正手段を設け、補正対象の画
像データが補正された画面の画像データを出力するデー
タ出力手段を設けたことにより、画面の画像データに対
して補正対象の画像データのみを画像処理することがで
きるので、画面において物体の見栄えが良い画像データ
などを得ることができ、画面の画像データの全体に一様
に画像処理を実行しないので、全体の再現性の低下を防
止することができ、補正対象の画像データのみを手作業
で画像処理する必要もないので、複雑な操作を要するこ
とがない。
According to the first aspect of the present invention, there is provided image input means for inputting image data of a screen, and image recognition means for recognizing preset image data to be corrected from the input image data of the screen. By providing the image correction means for correcting the recognized image data of the correction target and the data output means for outputting the image data of the screen in which the image data of the correction target is corrected, the image data of the screen is corrected. Since only the image data to be corrected can be image-processed, it is possible to obtain image data in which an object looks good on the screen, and image processing is not performed uniformly on the entire screen image data. It is possible to prevent deterioration of reproducibility and it is not necessary to manually perform image processing on only the image data to be corrected, so that a complicated operation is not required.

【0071】請求項2記載の発明は、画像認識手段が、
ニューラルネットワークを用いて補正対象の画像データ
を認識することにより、補正対象の画像データの自動的
な認識を良好に実行することができ、学習を繰り返すこ
とにより物体の認識精度を向上させることができる。
According to a second aspect of the invention, the image recognition means is
By recognizing the image data to be corrected using the neural network, automatic recognition of the image data to be corrected can be favorably performed, and the recognition accuracy of the object can be improved by repeating the learning. .

【0072】請求項3記載の発明は、画像認識手段が、
補正対象の画像データの形状を識別する第一ニューラル
ネットワークと、識別された形状に従って補正対象の画
像データを判別する第二ニューラルネットワークとを有
することにより、補正対象の画像データを形状に従って
良好に認識することができる。
According to a third aspect of the invention, the image recognition means is
By having the first neural network that identifies the shape of the image data to be corrected and the second neural network that determines the image data to be corrected according to the identified shape, the image data to be corrected is well recognized according to the shape. can do.

【0073】請求項4記載の発明は、補正対象の画像デ
ータの色割合を検出して第二ニューラルネットワークに
入力する色情報検出手段を設けたことにより、補正対象
の画像データを認識する場合に、形状だけでなく色割合
も参考にできるので、より良好に補正対象の画像データ
を認識することができる。
According to the fourth aspect of the present invention, the color information detecting means for detecting the color ratio of the image data to be corrected and inputting it to the second neural network is provided. Since not only the shape but also the color ratio can be referred to, the image data to be corrected can be recognized better.

【0074】請求項5記載の発明は、色情報検出手段
が、色割合を補正対象の画像データに存在する三原色の
色成分の割合として出力することにより、データ入力手
段が入力した画像データなどから色割合を直接に算出す
ることができるので、色割合の検出を簡略化することが
できる。
According to a fifth aspect of the present invention, the color information detecting means outputs the color ratio as a ratio of the color components of the three primary colors existing in the image data to be corrected, so that the image data inputted by the data input means can be detected. Since the color ratio can be calculated directly, the detection of the color ratio can be simplified.

【0075】請求項6記載の発明は、色情報検出手段
が、補正対象の画像データの色個数も検出して色割合と
共に第二ニューラルネットワークに入力することによ
り、補正対象の画像データを認識する場合に、形状だけ
でなく色個数も参考にできるので、より良好に補正対象
の画像データを認識することができる。
According to the sixth aspect of the invention, the color information detecting means recognizes the image data to be corrected by detecting the number of colors of the image data to be corrected and inputting the color number together with the color ratio into the second neural network. In this case, not only the shape but also the number of colors can be referred to, so that the image data to be corrected can be better recognized.

【0076】請求項7記載の発明は、色情報検出手段
が、色個数を補正対象の画像データに存在する三原色の
色成分の和の割合として検出することにより、データ入
力手段が入力した画像データなどから色個数を直接に算
出することができるので、色個数の検出を簡略化するこ
とができる。
According to the seventh aspect of the invention, the color information detecting means detects the number of colors as the ratio of the sum of the color components of the three primary colors existing in the image data to be corrected, and the image data input by the data input means is detected. Since it is possible to directly calculate the number of colors from the above, it is possible to simplify the detection of the number of colors.

【0077】請求項8記載の発明は、第一ニューラルネ
ットワークが、補正対象の画像データの形状を予め設定
された複数の候補の確率の割合として判別することによ
り、補正対象の画像データの形状を簡易かつ的確に識別
することができる。
According to the eighth aspect of the present invention, the first neural network determines the shape of the image data to be corrected by determining the shape of the image data to be corrected as the ratio of the probabilities of a plurality of preset candidates. It can be easily and accurately identified.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の画像処理装置であるデジタ
ル複写機が補正対象の画像データを認識する処理動作を
示す模式図である。
FIG. 1 is a schematic diagram showing a processing operation in which a digital copying machine that is an image processing apparatus according to an embodiment of the present invention recognizes image data to be corrected.

【図2】デジタル複写機を示すブロック図である。FIG. 2 is a block diagram showing a digital copying machine.

【図3】ニューラルネットワークのニューロンを示す模
式図である。
FIG. 3 is a schematic diagram showing neurons of a neural network.

【図4】物体としてテーブルを含む画像データを示す模
式図である。
FIG. 4 is a schematic diagram showing image data including a table as an object.

【図5】物体としてチューリップを含む画像データを示
す模式図である。
FIG. 5 is a schematic diagram showing image data including tulips as an object.

【図6】デジタル複写機の処理動作のメインルーチンを
示すフローチャートである。
FIG. 6 is a flowchart showing a main routine of a processing operation of the digital copying machine.

【図7】補正のサブルーチンを示すフローチャートであ
る。
FIG. 7 is a flowchart showing a correction subroutine.

【図8】物体認識のサブルーチンを示すフローチャート
である。
FIG. 8 is a flowchart showing a subroutine of object recognition.

【符号の説明】[Explanation of symbols]

1 画像処理装置2 データ入力手段 8 データ出力手段 10 画像認識手段 11 画像補正手段 12,15 ニューラルネットワーク 12 第一ニューラルネットワーク 15 第二ニューラルネットワーク 14 色情報検出手段 DESCRIPTION OF SYMBOLS 1 image processing device 2 data input means 8 data output means 10 image recognition means 11 image correction means 12, 15 neural network 12 first neural network 15 second neural network 14 color information detection means

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 1/48 H04N 1/46 A Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI Technical display area H04N 1/48 H04N 1/46 A

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 画面の画像データを入力するデータ入力
手段と、入力された画面の画像データから予め設定され
た補正対象の画像データを認識する画像認識手段と、認
識された補正対象の画像データを補正する画像補正手段
と、補正対象の画像データが補正された画面の画像デー
タを出力するデータ出力手段と、を有することを特徴と
する画像処理装置。
1. Data input means for inputting screen image data, image recognition means for recognizing preset correction target image data from the input screen image data, and recognized correction target image data. An image processing device comprising: an image correction unit that corrects the image data; and a data output unit that outputs the image data of the screen in which the image data to be corrected is corrected.
【請求項2】 画像認識手段が、ニューラルネットワー
クを用いて補正対象の画像データを認識することを特徴
とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the image recognition means recognizes the image data to be corrected using a neural network.
【請求項3】 画像認識手段が、補正対象の画像データ
から予め設定された形状を識別する第一ニューラルネッ
トワークと、識別された形状に従って補正対象の画像デ
ータを判別する第二ニューラルネットワークとを、有す
ることを特徴とする請求項1記載の画像処理装置。
3. A first neural network in which the image recognition means identifies a preset shape from the image data to be corrected, and a second neural network that determines the image data to be corrected according to the identified shape. The image processing apparatus according to claim 1, further comprising:
【請求項4】 補正対象の画像データの色割合を検出し
て第二ニューラルネットワークに入力する色情報検出手
段を設けたことを特徴とする請求項3記載の画像処理装
置。
4. The image processing apparatus according to claim 3, further comprising color information detection means for detecting a color ratio of the image data to be corrected and inputting the color ratio to the second neural network.
【請求項5】 色情報検出手段が、色割合を補正対象の
画像データに存在する三原色の色成分の割合として出力
することを特徴とする請求項4記載の画像処理装置。
5. The image processing apparatus according to claim 4, wherein the color information detecting means outputs the color ratio as a ratio of color components of the three primary colors existing in the image data to be corrected.
【請求項6】 色情報検出手段が、補正対象の画像デー
タの色個数も検出して色割合と共に第二ニューラルネッ
トワークに入力することを特徴とする請求項4記載の画
像処理装置。
6. The image processing apparatus according to claim 4, wherein the color information detecting means also detects the number of colors of the image data to be corrected and inputs the number together with the color ratio to the second neural network.
【請求項7】 色情報検出手段が、色個数を補正対象の
画像データに存在する三原色の色成分の和の割合として
検出することを特徴とする請求項6記載の画像処理装
置。
7. The image processing apparatus according to claim 6, wherein the color information detecting means detects the number of colors as a ratio of the sum of the color components of the three primary colors existing in the image data to be corrected.
【請求項8】 第一ニューラルネットワークが、形状を
予め設定された複数の候補の確率の割合として判別する
ことを特徴とする請求項3記載の画像処理装置。
8. The image processing apparatus according to claim 3, wherein the first neural network determines the shape as a ratio of the probabilities of a plurality of preset candidates.
JP7056380A 1995-03-16 1995-03-16 Image processor Pending JPH08255244A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7056380A JPH08255244A (en) 1995-03-16 1995-03-16 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7056380A JPH08255244A (en) 1995-03-16 1995-03-16 Image processor

Publications (1)

Publication Number Publication Date
JPH08255244A true JPH08255244A (en) 1996-10-01

Family

ID=13025662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7056380A Pending JPH08255244A (en) 1995-03-16 1995-03-16 Image processor

Country Status (1)

Country Link
JP (1) JPH08255244A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11257189B2 (en) 2019-05-02 2022-02-22 Samsung Electronics Co., Ltd. Electronic apparatus and image processing method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11257189B2 (en) 2019-05-02 2022-02-22 Samsung Electronics Co., Ltd. Electronic apparatus and image processing method thereof
US11861809B2 (en) 2019-05-02 2024-01-02 Samsung Electronics Co., Ltd. Electronic apparatus and image processing method thereof

Similar Documents

Publication Publication Date Title
US7394468B2 (en) Converted digital colour image with improved colour distinction for colour-blinds
US7130461B2 (en) Systems and method for automatically choosing visual characteristics to highlight a target against a background
JP2007534179A (en) Adjusting the brightness of digital images
JPH07121733A (en) Document image processor
JPH1153525A (en) Facial organ detector and medium
Luo et al. An efficient automatic redeye detection and correction algorithm
US10348932B2 (en) Image processing apparatus, method of controlling the same, and non-transitory computer-readable storage medium that decrease the lightness of pixels, except for a highlight region, based on a generated lightness histogram
JP2002077658A (en) Apparatus of image processing, method thereof, computer readable recording medium recording processing program
JPH11196285A (en) Image processing method, device and recording medium
Meng et al. Proposal of minimization problem based lightness modification method considering visual characteristics of protanopia and deuteranopia
JP2006203584A (en) Image processor and program
JPH08255244A (en) Image processor
JP2020107982A (en) Image processing device, color conversion method, and color conversion program
JP2003248825A (en) Device and method for image processing, image processing program, and storage medium
JP5689090B2 (en) Image forming method and image forming apparatus
JP3254896B2 (en) Document image processing device
JPH0962662A (en) Document processor
JPH08123901A (en) Character extraction device and character recognition device using this device
JP2019125912A (en) Color conversion device and program
US11669591B2 (en) Information processing apparatus and non-transitory computer readable medium
JP5069599B2 (en) Video conversion apparatus, video conversion method, and video conversion program
JPH09171555A (en) Device for forming digital image
JP3346849B2 (en) How to segment a color image
JP6809010B2 (en) Scanned image correction device, scanned image correction method, and computer program
JP3023375B2 (en) Image processing device for each image area of copier