JP3353968B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP3353968B2
JP3353968B2 JP26046593A JP26046593A JP3353968B2 JP 3353968 B2 JP3353968 B2 JP 3353968B2 JP 26046593 A JP26046593 A JP 26046593A JP 26046593 A JP26046593 A JP 26046593A JP 3353968 B2 JP3353968 B2 JP 3353968B2
Authority
JP
Japan
Prior art keywords
image
vector
type
data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26046593A
Other languages
Japanese (ja)
Other versions
JPH0799581A (en
Inventor
愼一 今出
成示 龍田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optic Co Ltd filed Critical Olympus Optic Co Ltd
Priority to JP26046593A priority Critical patent/JP3353968B2/en
Publication of JPH0799581A publication Critical patent/JPH0799581A/en
Application granted granted Critical
Publication of JP3353968B2 publication Critical patent/JP3353968B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、入力する活字、手書き
文字、写真、絵柄などの各種画像が混在した入力画像
(以下、混在画像と称する)を画像の種類毎の領域に分
割し、データ圧縮等の画像処理を行う画像処理装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention divides an input image (hereinafter referred to as "mixed image") in which various types of images such as printed characters, handwritten characters, photographs, and pictures are mixed into regions for each type of image. The present invention relates to an image processing device that performs image processing such as compression.

【0002】[0002]

【従来の技術】従来、文字,絵柄,写真等が混在した混
在画像(文書画像)の様な連続的に階調が変化する画像
(以下連続階調画像と称す)をディジタルデータとして
ファイリングする際に、それらのデータを蓄積するにし
ても通信を行うにしても、効率的データの伝送を行うた
めに、画像データにデータ圧縮が施されている。
2. Description of the Related Art Conventionally, when filing an image (hereinafter referred to as a continuous tone image) having a continuously changing tone, such as a mixed image (document image) in which characters, pictures, photographs, and the like are mixed, as digital data. Regardless of whether such data is stored or communicated, image data is subjected to data compression in order to transmit data efficiently.

【0003】一般に混在画像は、撮像装置によって取り
込み、データ圧縮等の画像処理を行なう場合、文字、絵
柄、写真等の相対的に性質の異なる領域に分割して、各
画像領域に応じた処理を行なうのが望ましい。
In general, when a mixed image is captured by an imaging device and subjected to image processing such as data compression, the mixed image is divided into regions having relatively different properties, such as characters, pictures, and photographs, and processing corresponding to each image region is performed. It is desirable to do.

【0004】この混在画像から、文字列、絵柄、写真等
の各領域を分割する手法としては、画像全体を連結成分
に分解し、ある種の統合を行なって、連結成分の集合と
しての領域を設定する方法が一般に行われている。
As a method of dividing each region such as a character string, a picture, and a photograph from the mixed image, the whole image is decomposed into connected components, and a certain type of integration is performed to form a region as a set of connected components. The method of setting is generally performed.

【0005】従来の技術としては、例えば、文献“文字
/絵柄(網点、写真)混在画像の像域分離方式”[電子
情報通信学会論文誌 D−II Vol.J75−D−
IINo.1 p.p.39−47 1992年1月]に記
載されるように、文字画像判定を行うために、まずエッ
ジ強調処理を行い、適当な閾値判定により3値化し、
黒,白画素が連続する箇所をパターンマッチングによっ
てエッジ領域を検出し、文字画像領域を判断する方式が
ある。
[0005] As a conventional technique, for example, a document “Image area separation method of mixed image of characters / pictures (dots, photos)” [Transactions of the Institute of Electronics, Information and Communication Engineers D-II Vol. J75-D-
IINo. 1 pp39-47 Jan. 1992], in order to determine a character image, an edge enhancement process is first performed, and the image is ternarized by an appropriate threshold value determination.
There is a method in which an edge region is detected by pattern matching at a portion where black and white pixels continue, and a character image region is determined.

【0006】また、特開昭61−296481号公報に
記載されるような、入力された2値の文書画像を縮小化
し、近接した黒画素を統合して領域を検出するものもあ
る。
[0006] Further, as disclosed in Japanese Patent Application Laid-Open No. 61-296481, there is a method in which an input binary document image is reduced and an area is detected by integrating adjacent black pixels.

【0007】これは図49に示すように、文書を光学的
に走査し、光電変換することによって得られた2値の画
像(文書画像)を記憶する画像情報記憶部と、前記画像
情報記憶部に記憶された文書画像を小領域に分割し、各
小領域を1画素に縮小して記憶する縮小画像記憶部と、
前記縮小画像を文字列方向に走査して、近接した黒画素
を統合する黒画素統合処理部と、前記黒画素統合処理部
で得られた画像において、黒画素の連結した領域を画像
領域として検出する領域検出部とから構成されている。
As shown in FIG. 49, the image information storage section stores a binary image (document image) obtained by optically scanning a document and performing photoelectric conversion, as shown in FIG. A reduced image storage unit that divides the document image stored in the small area into small areas, and reduces and stores each small area to one pixel;
The reduced image is scanned in the character string direction, and a black pixel integration processing unit that integrates adjacent black pixels, and in the image obtained by the black pixel integration processing unit, a connected region of black pixels is detected as an image region. And an area detecting unit.

【0008】前記画像情報記憶部に記憶された2値の文
書画像は、所定の画素数からなる小領域に分割され、各
小領域中での黒画素の数が所定の閾値以上であれば黒画
素を、閾値未満であれば白画素を割り当て、縮小画像記
憶部2に記憶される。
The binary document image stored in the image information storage section is divided into small areas each having a predetermined number of pixels. If the number of black pixels in each of the small areas is equal to or more than a predetermined threshold, the black If the pixel is smaller than the threshold value, a white pixel is assigned and stored in the reduced image storage unit 2.

【0009】また、黒画素統合処理部では、前記縮小画
像を文字列方向に走査して、所定の閾値より短い白ラン
を黒ランに変換することによって近接した黒画素を統合
する。領域検出部では、前記黒画素統合処理部で得られ
た画像において黒画素の連結した領域を画像領域として
検出する。これにより、文書中に含まれる画像領域の検
出を行なうことができる。
The black pixel integration processing section scans the reduced image in the character string direction and integrates adjacent black pixels by converting a white run shorter than a predetermined threshold into a black run. The region detection unit detects a region where black pixels are connected in the image obtained by the black pixel integration processing unit as an image region. This makes it possible to detect an image area included in the document.

【0010】また、従来画像情報処理システムの処理機
能として、入力した混在画像を画像種類ごとに分類して
ディジタルデータに変換する処理が行われている。
Further, as a processing function of the conventional image information processing system, a process of classifying input mixed images by image type and converting them into digital data is performed.

【0011】この処理は、混在画像をディジタルデータ
で蓄積メディアに保存する際に、画像種類ごとに最大効
率でデータを圧縮できる圧縮方法を適用し、総合的デー
タ量を、所望される情報の品質を維持しつつ、最大限削
減することが目的の一つにある。また文字、線画などの
2値階調画像と写真などの連続階調画像を分類してそれ
ぞれに2値画像表現された画像がより良好であるように
2値化処理方法を適応的に選択することを目的としてい
るものもある。
In this processing, when a mixed image is stored in a storage medium as digital data, a compression method capable of compressing data with maximum efficiency for each image type is applied to reduce the total data amount and the desired information quality. One of the objectives is to reduce the maximum while maintaining the above. In addition, a binary tone image such as a character or a line drawing and a continuous tone image such as a photograph are classified, and a binarization processing method is adaptively selected so that an image represented by each of the binary tone images is better. Some are intended to do so.

【0012】前記混在画像の中から画像種類ごとの記載
領域を分割し、分類する処理方法は種々考案されてい
る。これらの多くは画像の種類によって呈する特徴量を
抽出して、その特徴量を定められた評価関数または判定
関数で判断し、画像種類を決定している。画像におい
て、所定ブロック領域内での黒画素の発生頻度やエッジ
の発生頻度、輝度レベルのヒストグラム、空間周波数分
布、線分の方向度分布などを特徴量としているものが従
来例として多い。
Various processing methods have been devised for dividing and classifying the description area for each image type from the mixed image. In many of these cases, the feature amount presented by the type of image is extracted, and the feature amount is determined by a predetermined evaluation function or determination function to determine the image type. Many of the conventional examples of an image have feature amounts such as the frequency of occurrence of black pixels and the frequency of occurrence of edges in a predetermined block area, a histogram of luminance levels, a spatial frequency distribution, a direction distribution of line segments, and the like.

【0013】また本発明においても特徴量として利用す
る入力画像の濃度勾配の度数分布を特徴量としている
例、特公平4−18350号公報がある。この分類処理
方法では、入力画像であるディジタル画像の水平方向、
垂直方向に対して画素単位毎に濃度勾配を求め、求めた
水平、垂直濃度勾配の値から算出される方向を、分割さ
れた小領域内で計数して、その度数分布を求めている。
度数分布から度数の分散を算出して、分散と所定閾値と
の閾値判定により文字領域であるか否かを判断し決定し
ているものである。
In the present invention, Japanese Patent Publication No. 4-18350 discloses an example in which the frequency distribution of the density gradient of an input image used as a feature is used as the feature. In this classification processing method, the horizontal direction of a digital image which is an input image,
A density gradient is obtained for each pixel unit in the vertical direction, and a direction calculated from the obtained values of the horizontal and vertical density gradients is counted in the divided small region to obtain a frequency distribution.
The variance of the frequencies is calculated from the frequency distribution, and whether or not the area is a character area is determined by the threshold determination between the variance and a predetermined threshold.

【0014】[0014]

【発明が解決しようとする課題】前述した従来の手法に
よる画像データの分類が良好に行われるには、入力され
た画像データがノイズ等を含まない比較的良好な状態の
理想的な画像データを対象としている。しかし実際に
は、入力画像データに照明ムラやファイル原稿の汚れ等
が入り込む場合が多く、このような画像内で部分的にコ
ントラストの低下やノイズの発生し、黒画素検出やエッ
ジ抽出が不安定になる。従って、不安定な黒画素検出や
エッジ抽出をパラメータとして用いた従来の手法では、
正確な画像種類の判定が非常に難しくなる。
In order for the image data to be satisfactorily classified according to the above-mentioned conventional method, the ideal image data in a relatively good state where the input image data does not contain noise or the like is required. It is targeted. However, in practice, there are many cases in which unevenness of illumination, dirt on a file document, etc., enter the input image data, such that a decrease in contrast or noise occurs partially in such an image, and black pixel detection and edge extraction are unstable. become. Therefore, in the conventional method using unstable black pixel detection and edge extraction as parameters,
It is very difficult to determine an accurate image type.

【0015】さらに前述した混在画像の領域分割におい
て、画像領域の端部が欠けることなく領域分割を行なう
ためには、画像を縮小化する際に文字の端点等のエッジ
部分を忠実に反映させることが要求される。しかしなが
ら、従来の技術では取り込んだ2値の混在画像を小領域
に分割し、各小領域中の黒画素の数が所定の閾値以上の
場合に黒画素を割り当てていたので、閾値が‘0’より
大きいと、小領域が画像領域の端にかかった場合に領域
が検出されずに、一部が欠けてしまうことや、また閾値
を‘0’にするとノイズを多く拾ってしまい、正しい分
割が出来ないという欠点を有していた。
Further, in the above-described area division of the mixed image, in order to perform the area division without losing the end of the image area, it is necessary to faithfully reflect an edge portion such as a character end point when the image is reduced. Is required. However, in the conventional technique, the captured binary mixed image is divided into small areas, and the black pixels are allocated when the number of black pixels in each small area is equal to or larger than a predetermined threshold. If it is larger, if the small area is at the edge of the image area, the area will not be detected and part will be lost, and if the threshold is set to '0', much noise will be picked up, and the correct division will not be performed. It had the drawback that it could not be done.

【0016】さらに、黒白の反転した混在画像では、文
書全体が大きな領域として抽出されてしまうといった欠
点も有していた。
Further, the mixed image in which black and white are inverted has a drawback that the entire document is extracted as a large area.

【0017】また、前述した濃度閾値から算出される方
向の分布は、画像のエッジ部分の方向性分布をよく反映
できる。従って垂直・水平方向にエッジ成分を多く含む
活字体文字の画像に限って、それ以外の画像との差異が
顕著になるので、被判定画像が活字体文字か否かを決定
するには有効な特徴量である。さらにこの特徴量から判
定を下す評価基準として分布の分散を用いていること
は、エッジの方向性の偏りを観察することになり、また
分散の算出そのものが計算的負荷が比較的軽いので実用
的である。
The distribution in the direction calculated from the above-mentioned density threshold can well reflect the directional distribution of the edge portion of the image. Therefore, the difference from other images becomes remarkable only in the image of the typeface character including many edge components in the vertical and horizontal directions, and is effective in determining whether the image to be determined is the typeface character. It is a feature quantity. Furthermore, using the variance of the distribution as an evaluation criterion for making judgments from this feature value means observing a bias in the directionality of the edges, and the calculation of the variance itself has a relatively light computational load, and is therefore practical. It is.

【0018】しかし、濃度勾配の方向分布に対する分散
だけを閾値判定しても、例えば、輝度(濃度)レベルの
範囲が狭くなっている所謂コントラストが低い画像であ
ったり、判定対象小領域に対し文字のエッジ部分占める
割合が小さい場合であったり、文字そのものの線の太さ
が細かったりする場合では、たとえそれが活字体文字画
像であっても分散が小さくなり、明確な判定が困難にな
る。なぜなら背景が呈する濃度勾配の方向分布が頻度と
して多くなり、文字部分が呈するそれと相対的に差異が
認められなくなるためである。背景が示す濃度勾配の方
向分布は通常方向依存性はないので、文字部のエッジの
方向分布の方向依存性が背景の分布に埋もれてしまう。
However, even if only the variance with respect to the directional distribution of the density gradient is determined by the threshold value, for example, an image having a low brightness (density) level, that is, a so-called low-contrast image, or a small area to be determined may be used as a character. Is small or the line thickness of the character itself is small, even if it is a typeface character image, the variance becomes small and it is difficult to make a clear judgment. This is because the direction distribution of the density gradient presented by the background increases in frequency, and no difference is recognized relative to that exhibited by the character portion. Since the direction distribution of the density gradient indicated by the background usually has no direction dependency, the direction dependency of the direction distribution of the edge of the character portion is buried in the background distribution.

【0019】さらには、活字体文字画像に限らず多種画
像(手書き文字・写真・絵柄・背景)を選択して分類し
ようとすると、濃度勾配の方向分布の分散を観察しただ
けでは全く区別できないという問題点があった。
Furthermore, when trying to select and classify various types of images (handwritten characters, photographs, pictures, and backgrounds) as well as typeface character images, it is impossible to distinguish them simply by observing the variance of the directional distribution of the density gradient. There was a problem.

【0020】そこで本発明は、各種画像が混在した入力
画像を画像の種類毎の領域に分割でき、各種画像種類に
適した画像データ圧縮等を行うことに当たって好適とな
る画像処理装置を提供することを目的とする。
Accordingly, the present invention provides an image processing apparatus which is capable of dividing an input image in which various images are mixed into regions for each type of image, and which is suitable for performing image data compression or the like suitable for various image types. With the goal.

【0021】[0021]

【0022】[0022]

【課題を解決するための手段】本発明は上記目的を達成
するために、文字、絵柄および写真等が混在する混在画
像から、文字列、絵柄、写真等の各領域を分割する画像
処理装置において、前記混在画像を記憶する画像メモリ
と、前記画像メモリに記憶された混在画像からエッジを
抽出し、2値画像に変換するエッジ抽出・2値化処理手
段と、前記2値画像を所定数の画素からなる小領域に分
割し、各小領域を1画素に縮小する縮小画像処理手段
と、前記縮小画像中の黒画素領域を統合し、ブロック化
するブロック処理手段と、前記ブロック処理手段のブロ
ック化により連結した黒画素の存在範囲から画像領域外
接矩形の対角座標を求める矩形領域抽出手段とで構成さ
れた画像処理装置を提供する。
The present invention achieves the above object.
In order to achieve this, in an image processing apparatus that divides each region of a character string, a pattern, a photograph, and the like from a mixed image in which characters, patterns, photos, and the like are mixed, an image memory that stores the mixed image, and an image memory that stores the mixed image. Edge extraction / binarization processing means for extracting an edge from the mixed image thus obtained and converting the binary image into a binary image; and dividing the binary image into small regions each having a predetermined number of pixels, and converting each small region into one pixel. A reduced image processing means for reducing, a block processing means for integrating and blackening a black pixel area in the reduced image, and a pair of an image area circumscribed rectangle from the existing range of the black pixels connected by blocking of the block processing means. Provided is an image processing apparatus including a rectangular area extracting means for obtaining angular coordinates.

【0023】また、文字,絵柄および写真等が混在する
混在画像をディジタル化し蓄積する画像フレームメモリ
と、前記画像フレームメモリから出力される画像データ
を同種類毎の画像領域に分割して、同種画像領域の位置
並びに大きさを出力する同種画像領域分割手段と、前記
同種画像領域内を所定の大きさの小領域に選択抽出し、
該小領域の位置、大きさを出力する探索ブロック領域選
択手段と、前記探索ブロック領域選択手段により選択さ
れた小領域に対応する画像データを判定対象領域として
前記画像フレームメモリより読み出し、一時蓄積する判
定対象ブロック画像メモリと、前記判定対象領域の画像
データから水平方向の差分値データ及び垂直方向の差分
値データを検出する差分検出手段と、前記差分データに
より輝度修正のための修正パラメータを算出し、前記修
正パラメータに基づき、前記判定対象領域の画像データ
から修正された輝度レベルを算出する輝度レベル修正処
理手段と、前記差分検出手段からの差分値データ、及び
前記輝度レベル修正処理手段からの修正輝度レベルデー
タをベクトル量子化するベクトル量子化手段と、前記ベ
クトル量子化手段からの量子化ベクトルの各成分の計数
を行う量子化ベクトル計数手段と、計数された量子化ベ
クトルの成分を入力とし、所定の画像種類を出力するニ
ューラルネットワーク(神経回路網)と、出力される画
像種類の判定結果を評価し決定して、前記同種画像領域
の位置及び大きさのデータと合わせて決定した画像種類
を出力する画像種決定手段とで構成された画像処理装置
を提供する。
Also, an image frame memory for digitizing and storing a mixed image containing characters, pictures, photographs, and the like, and image data output from the image frame memory are divided into image areas of the same type to form the same type of image. A similar image area dividing means for outputting the position and size of the area, and selectively extracting the inside of the same image area into a small area of a predetermined size,
Search block area selection means for outputting the position and size of the small area, and image data corresponding to the small area selected by the search block area selection means are read from the image frame memory as determination target areas and temporarily stored. a determination target block image memory, the horizontal direction of the difference value data and the differencing detection means that detect a difference value data in the vertical direction from the image data of the determination target region, modifying for the luminance corrected by pre Symbol differencing data calculating a parameter based on the correction parameters, the luminance level correction processing means for calculating a luminance level that is corrected from the image data of the determination target region, a difference integral value data from the previous SL differencing detecting means, and said luminance Vector quantization means for vector-quantizing the corrected luminance level data from the level correction processing means, and the vector quantization means A quantization vector counting means for counting each component of the quantization vector, a neural network (neural network) which receives the counted quantization vector component as an input and outputs a predetermined image type, and outputs Provided is an image processing apparatus comprising: an image type determination unit that evaluates and determines an image type determination result, and outputs an image type determined in accordance with position and size data of the same type image region.

【0024】さらに、入力した画像信号をデジタル画像
データに変換する画像入力手段と、前記入力した画像信
号内から所定の大きさで小領域を選択抽出する判定対象
領域選択部と、判定対象領域の画像データから隣接する
画素の所定数(N)の画素からなる局所特徴パターンを
検出する局所特徴パターン検出手段と、前記局所特徴
ターンをN次元空間上でベクトル量子化するベクトル量
子化手段と、前記ベクトル量子化手段により量子化され
た代表ベクトルに対してその発生頻度を計数してヒスト
グラムを算出するヒストグラム生成手段と、前記ヒスト
グラム生成手段により求められた量子化ベクトルヒスト
グラムを入力として、その分布形状を識別して所望する
画像種類を出力する画像種識別手段と、前記識別結果を
得て、画像種類を決定する画像種決定手段とで構成され
た画像処理装置を提供する。
Further, image input means for converting an input image signal into digital image data, a determination target area selection section for selecting and extracting a small area of a predetermined size from the input image signal, a local feature pattern detection means for detecting a local feature pattern comprising pixels of a predetermined number of pixels adjacent the image data (N), vector quantization of the vector quantizing the local feature Pas <br/> turn on the N-dimensional space A histogram generating means for counting the frequency of occurrence of the representative vector quantized by the vector quantization means to calculate a histogram, and a quantized vector histogram obtained by the histogram generating means as an input. Image type identification means for identifying the distribution shape and outputting a desired image type; Provides the configured image processing apparatus and the image type determination means for determining a.

【0025】[0025]

【0026】[0026]

【作用】以上のような構成の画像処理装置は、入力され
た、異なる画像の種類、例えば活字体文字、手書き文
字、写真、絵柄画像などが混在する画像(文書画像)か
らエッジを抽出し、2値化画像処理が施される。その2
値画像を所定数の画素からなる小領域に、画像領域の端
部が欠けることなく、また、黒白の反転した混在画像に
対しても、効率よく分割されて、各小領域が1画素に縮
小され、縮小画像中の黒画素領域を統合しブロック化さ
れる。前記ブロック化により連結した黒画素の存在範囲
から画像領域外接矩形の対角座標を求められ、同種画像
領域毎に分割される。
The image processing apparatus configured as described above extracts edges from input images (document images) in which different types of images, for example, typeface characters, handwritten characters, photographs, picture images, etc. are mixed. Binary image processing is performed. Part 2
The value image is efficiently divided into a small area composed of a predetermined number of pixels without losing the edges of the image area, and even for a mixed image in which black and white are inverted, each small area is reduced to one pixel. Then, the black pixel areas in the reduced image are integrated and blocked. The diagonal coordinates of the circumscribed rectangle of the image area are obtained from the existing range of the black pixels connected by the blocking, and the image area is divided into the same kind of image area.

【0027】さらに本画像処理装置は、入力した混在画
像が同種画像領域毎に的確に分割され、同種画像領域内
に判定対象領域を定めて、例えば水平差分値,垂直差分
値、修正輝度レベルの3つのパラメータがなす3次元直
交空間に分布する形状をベクトル量子化によりパターン
化してモデル化し、そのモデル化された分布パターンを
ニューラルネットワークで認識して画像種類が判定さ
れ、混在画像が像域分離される。
Further, the present image processing apparatus is capable of accurately dividing the input mixed image for each same-type image region, defining a determination target region within the same-type image region, and for example, determining a horizontal difference value, a vertical difference value, and a corrected luminance level. A shape distributed in a three-dimensional orthogonal space formed by the three parameters is modeled by patterning by vector quantization, and the modeled distribution pattern is recognized by a neural network to determine an image type. Is done.

【0028】また本画像処理装置は、混在画像の各分割
領域に対し、所定の小ブロック単位で特徴パターンを検
出し、その特徴パターンの生起確率分布をニューラルネ
ットワークで識別し判定される。この特徴パターンの特
徴量は、画像の隣接する画素の複数(N)からなる例え
ば、輝度パターンを所定小ブロック内で漏れなく検出さ
れ、検出された輝度パターンをN次元ベクトルと見なし
て、N次元空間において、ベクトル(輝度パターン)の
ベクトル量子化が行われる。そして量子化された所定数
の代表ベクトルに対して、それぞれ発生度数分布を計数
して、発生度数分布の形状を識別する目的で各量子化ベ
クトルの発生度数を並列して、例えば画像種識別手段と
してのニューラルネットワークに入力され、分布形状に
対応する画像種識別結果が出力される。
Further, the image processing apparatus detects a characteristic pattern for each divided region of the mixed image in predetermined small block units, and identifies and determines the occurrence probability distribution of the characteristic pattern by a neural network. The feature amount of this feature pattern is, for example, a plurality of (N) adjacent pixels of the image. For example, the brightness pattern is detected without omission in a predetermined small block, and the detected brightness pattern is regarded as an N-dimensional vector. In the space, vector quantization of a vector (luminance pattern) is performed. For each of the predetermined number of quantized representative vectors, the occurrence frequency distribution is counted, and for the purpose of identifying the shape of the occurrence frequency distribution, the occurrence frequencies of the respective quantization vectors are arranged in parallel. , And an image type identification result corresponding to the distribution shape is output.

【0029】[0029]

【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0030】図1には、本発明による第1実施例として
の画像データ圧縮装置の構成を示し説明する。
FIG. 1 shows the structure of an image data compression apparatus according to a first embodiment of the present invention.

【0031】この画像データ圧縮装置において、画像入
力部1は光学系1aと、例えばCCD等の固体撮像素子
1bとで構成され、入力する2値画像または連続階調画
像から成るカラー画像をディジタル画像データに変換し
て取り込む。
In this image data compression apparatus, an image input unit 1 comprises an optical system 1a and a solid-state image pickup device 1b such as a CCD, for example, and converts a color image composed of a binary image or a continuous tone image to be inputted into a digital image Convert to data and import.

【0032】前記画像入力部1から出力される画像デー
タは、カラー/モノクロ変換処理部2に入力され、取り
込んだカラー画像から輝度(明度)成分のみのデータに
変換されモノクロ画像データに変換し出力する。これは
画像種類を特定して領域を抽出する像域分割を行う上
で、初期段階で扱うデータ量を削減し、以後の処理を簡
単化することにある。
The image data output from the image input unit 1 is input to a color / monochrome conversion processing unit 2 which converts the captured color image into data of only a luminance (brightness) component, converts the data into monochrome image data, and outputs it. I do. This is to reduce the amount of data handled in the initial stage and simplify the subsequent processing when performing image area division for extracting an area by specifying an image type.

【0033】前記カラー/モノクロ変換処理部2から出
力されるモノクロ画像データは、2値化処理部3に入力
され、2値化処理が施される。前記2値化処理部3で
は、黒画素抽出処理またはエッジ抽出処理が行われる。
The monochrome image data output from the color / monochrome conversion processing unit 2 is input to a binarization processing unit 3 and subjected to a binarization process. In the binarization processing section 3, black pixel extraction processing or edge extraction processing is performed.

【0034】ここで、前述した処理を図2及び図3を参
照して具体的に説明する。
Here, the above-described processing will be specifically described with reference to FIGS.

【0035】図2には、黒画素抽出の処理を行う構成を
示す。
FIG. 2 shows a configuration for performing black pixel extraction processing.

【0036】まずモノクロ画像データは、差分演算処理
部11,12により、画像の水平方向と垂直方向のそれ
ぞれに対し、所定の画素間単位毎に差分処理が行われ
る。この差分処理で得られたデータに対して、適切な閾
値を設定して、差分データの絶対値がその閾値以下のと
き‘0’とし、それ以外は‘1’とする2値化処理を2
値化処理部13,14で行う。
First, difference processing is performed on the monochrome image data by the difference calculation processing units 11 and 12 in the horizontal direction and the vertical direction of the image for each predetermined pixel unit. An appropriate threshold value is set for the data obtained by the difference processing, and is set to “0” when the absolute value of the difference data is equal to or less than the threshold value, and to “1” otherwise.
This is performed by the value processing units 13 and 14.

【0037】そして合成部15により、水平,垂直の各
2値化データの論理和(排他的論理和)をとり、再び水
平、垂直方向のデータに分離して黒画素再生部16,1
7にて連続する‘0’を挟んだ‘1’と‘1’の間を全
て‘1’にする。
The combining unit 15 calculates the logical sum (exclusive logical sum) of the horizontal and vertical binary data, separates the data into horizontal and vertical data again, and reconstructs the black pixel reproduction units 16 and 1.
In step 7, all the parts between '1' and '1' sandwiching '0' are made '1'.

【0038】その結果得られる水平、垂直方向の2値化
データを、さらに合成部18で論理和をとり、黒画素ビ
ットマップを得る。
The resultant binarized data in the horizontal and vertical directions is further ORed by the synthesizing unit 18 to obtain a black pixel bit map.

【0039】次に図3を参照して、2値化処理部3で行
う2値化処理のもう1つの手法及び、エッジ抽出処理の
一例を説明する。前記黒画素ビットマップを生成したの
と同様に、モノクロ画像データは、画像の水平方向と垂
直方向それぞれに対して、所定の画素間単位毎に差分演
算処理部21,22で差分処理が行なわれる。
Next, another example of the binarization processing performed by the binarization processing unit 3 and an example of the edge extraction processing will be described with reference to FIG. Similarly to the case where the black pixel bitmap is generated, the difference calculation processing units 21 and 22 perform difference processing on the monochrome image data in the horizontal direction and the vertical direction of the image for each predetermined pixel unit. .

【0040】これらの差分処理で得られたデータに対
し、適切な正又は負の閾値を設定して、差分データがそ
の正の閾値以下の時、又は負の閾以上の時‘0’とし、
正の閾値以上の時、又は負の閾以下の時は‘1’とする
2値化処理を2値化処理部23,24で行う。ここでこ
の様にするのは、正負2対の差分値から成る2値線分の
一方のエッジのみを抽出するためである。これは文字画
像等で、その線分の太さの変化に対する特徴パラメータ
の依存性を軽減するためである。水平、垂直方向それぞ
れの2値化データの論理和(排他的論理和)を合成部2
5でとり、エッジ抽出による2値化画像データを得る。
An appropriate positive or negative threshold value is set for the data obtained by these difference processing, and when the difference data is equal to or less than the positive threshold value or equal to or greater than the negative threshold value, it is set to “0”.
When the value is equal to or more than the positive threshold value or equal to or less than the negative threshold value, the binarization processing units 23 and 24 perform a binarization process of setting it to “1”. The reason for this is to extract only one edge of a binary segment consisting of two pairs of difference values. This is to reduce the dependence of the characteristic parameter on the change in the thickness of the line segment in a character image or the like. The logical sum (exclusive logical sum) of the binary data in the horizontal and vertical directions is synthesized by the synthesizing unit 2.
5 to obtain binary image data by edge extraction.

【0041】次に図1に戻り、全体の処理の流れを再び
説明する。
Next, returning to FIG. 1, the overall processing flow will be described again.

【0042】前記2値化処理部3から出力された2値画
像データは、縮小処理部4に入力され、縮小処理を行
う。縮小処理は適当な間隔で画素の単純間引きによって
実現する。この縮小処理によって2値画像データは、行
間等の画像を構成する要素が無い領域と構成要素がある
領域との分離がより明確になる。
The binary image data output from the binarization processing unit 3 is input to a reduction processing unit 4 and performs a reduction process. Reduction processing is realized by simple thinning of pixels at appropriate intervals. By this reduction processing, in the binary image data, the separation between the region having no elements constituting the image such as the line spacing and the region having the components becomes clearer.

【0043】そしてデータ自体の削減が実行され、処理
負荷が低減される。縮小処理部4からの出力は、連続構
成要素領域の境界抽出部5に入力される。この境界抽出
は、例えば、図4に示す構成によって処理が実現され
る。
Then, the reduction of the data itself is performed, and the processing load is reduced. The output from the reduction processing unit 4 is input to the boundary extraction unit 5 for the continuous component area. This boundary extraction is realized, for example, by the configuration shown in FIG.

【0044】まず、間引き処理部26から出力された2
値化データは、LPF(ローパスフィルタ)27を通過
して、エッジ部の平滑化処理が行われ、平滑化処理によ
って得られたデータは、エッジ抽出部28で閾値判定に
よるエッジ抽出が行われる。
First, the 2 output from the thinning processing section 26
The quantified data passes through an LPF (low-pass filter) 27 to perform an edge smoothing process, and the data obtained by the smoothing process is subjected to an edge extraction by an edge extraction unit 28 based on threshold determination.

【0045】ここで抽出されたエッジデータにより、境
界線算出部29により、水平線垂直線で直線近似を行い
連続構成要素領域の境界を算出することができる。この
直線近似は、例えば、最小自乗法による近似を用いるこ
とができる。結果として、複数の構成要素毎の矩形領域
を得る。
Based on the extracted edge data, the boundary calculation unit 29 can calculate a boundary of a continuous component area by performing a linear approximation with a horizontal line and a vertical line. For this linear approximation, for example, approximation by the least squares method can be used. As a result, a rectangular area for each of a plurality of components is obtained.

【0046】次に連続構成要素領域の境界抽出部5から
出力された領域データに基づき、画像種類判定部6によ
り、領域毎の画像種類が随時判定される。
Next, based on the area data output from the boundary extraction section 5 of the continuous component area, the image type determination section 6 determines the image type of each area as needed.

【0047】画像種類の判定において、図5を参照して
具体的に説明する。図5(a)は事前に画像種類の違い
による特徴を統計データより抽出して判定時の評価基準
を判定する過程を示す。図5(b)は求めた評価基準を
使って実際の画像種類の判定を行う際の過程を示す。図
5(a)のエッジ抽出部31は、図1で説明された2値
化処理部3に対応する。
The determination of the image type will be specifically described with reference to FIG. FIG. 5A shows a process of extracting features due to differences in image types from statistical data in advance and determining an evaluation criterion at the time of determination. FIG. 5B shows a process for determining the actual image type using the obtained evaluation criterion. The edge extraction unit 31 in FIG. 5A corresponds to the binarization processing unit 3 described in FIG.

【0048】抽出されたエッジデータは、元々の入力画
像に照明ムラ等があった場合にそれらを削減する効果が
ある。また図3で説明したエッジ抽出手法を使えば、文
字画像等を構成する線分の太さに対する依存性が小さい
特徴パラメータとすることができる。エッジ抽出部31
から出力された2値化画像データは、所定のブロック単
位で統計的に複数サンプルし、KL変換部32でKL変
換が施される。KL変換部32ではブロックを構成する
画素数の正規直交ベクトルで表されているブロック単位
の2値化画像データを無相関データになるように変換
し、その基底ベクトルを基底ベクトル抽出部33で算出
する。
The extracted edge data has the effect of reducing illumination unevenness or the like in the original input image if it is present. In addition, if the edge extraction method described with reference to FIG. 3 is used, it is possible to use a feature parameter that has a small dependence on the thickness of a line segment forming a character image or the like. Edge extraction unit 31
The binary image data output from is statistically sampled in units of a predetermined block, and subjected to KL conversion by the KL conversion unit 32. The KL conversion unit 32 converts the binary image data in block units represented by the orthonormal vector of the number of pixels constituting the block into uncorrelated data, and calculates the base vector by the base vector extraction unit 33. I do.

【0049】その基底ベクトル算出の対象となる2値化
画像データは画像種類が混在した画像標本を用いる。従
って各種画像が混ざった画像データの任意のブロックデ
ータを使用する。算出した基底ベクトルは内積演算部3
4に入力され、エッジ抽出部31から出力される2値化
画像データとブロック単位で内積演算が行われる。内積
演算されたデータは、算出基底ベクトル毎の成分値を示
し、各種画像に応じた特徴量が得られる。得られた基底
ベクトル毎の内積結果である特徴量をニューラルネット
ワーク部35に入力する。
As the binarized image data for which the basis vector is calculated, an image sample in which image types are mixed is used. Therefore, arbitrary block data of image data in which various images are mixed is used. The calculated base vector is the inner product operation unit 3
4 and the binarized image data output from the edge extraction unit 31 and an inner product operation is performed in block units. The data on which the inner product operation has been performed indicates component values for each calculated base vector, and feature amounts corresponding to various images can be obtained. The obtained feature amount as the inner product result for each base vector is input to the neural network unit 35.

【0050】前記ニューラルネットワーク部35に入力
する入力数は、前記基底ベクトル数としてもよいが、特
徴量を顕著に表すベクトルから優先的に選択して有効な
ベクトルのみをニューラルネットワークの入力としても
よい。ニューラルネットワークは階層型ネットワークを
用いる。ニューラルネットワークの出力は判定したい画
像種類の数として、教師データ入力部36から教師デー
タが人為的にサンプルしたブロックデータ毎に入力さ
れ、学習がなされる。学習は一般的な逆伝搬法を用いれ
ばよい。
The number of inputs to the neural network unit 35 may be the number of base vectors, but only the effective vectors selected preferentially from the vectors that remarkably represent the feature quantity may be input to the neural network. . The neural network uses a hierarchical network. The output of the neural network is input as the number of image types to be determined from the teacher data input unit 36 for each block data where artificial data is artificially sampled, and learning is performed. For learning, a general back propagation method may be used.

【0051】ブロック領域単位の事前学習によって構築
されたネットワークは、2値化画像データの画像種類の
違いによる2値化パターンベクトルの判定回路である。
この判定回路に2値化パターンデータを入力することで
画像種類の判定を実行することができる。KL変換によ
って求めた各ベクトルの特徴量の判定にあえてニューラ
ルネットワークを用いるのは、特徴量の微妙な違いをよ
り精度よく判定するためである。
The network constructed by the pre-learning for each block area is a circuit for determining a binarized pattern vector depending on the image type of the binarized image data.
The image type can be determined by inputting the binarized pattern data to the determination circuit. The reason why the neural network is used to determine the feature amount of each vector obtained by the KL transformation is to determine a subtle difference in the feature amount with higher accuracy.

【0052】そして図5(b)で示す実際の判定では、
エッジ抽出部31の出力が内積演算部34に入力され、
エッジ抽出部31から出力される2値化画像データとブ
ロック単位で先に求めた基底ベクトルとの内積演算が行
われる。その出力は事前学習にて構築したニューラルネ
ットワーク35に入力され画像の種類が判定され、判定
した画像の種類を出力する。
Then, in the actual judgment shown in FIG.
The output of the edge extraction unit 31 is input to the inner product calculation unit 34,
An inner product operation is performed between the binarized image data output from the edge extraction unit 31 and the base vector previously obtained in block units. The output is input to a neural network 35 constructed by pre-learning, the type of image is determined, and the determined type of image is output.

【0053】図1の構成図において、画像種類判定部6
から出力される画像種類判定結果のデータはデータ圧縮
部7に加えられて、データ圧縮方法が選択され、画像入
力部1からの出力画像を該当するデータ圧縮方法でデー
タ圧縮が行われる。当然ながら境界抽出部5から出力さ
れる領域の位置及びサイズデータと共に画像データが存
在する部分のデータのみ選択的にデータ圧縮が施され
る。従ってデータ圧縮部からの出力は、画像データが存
在する複数の部分領域の位置とサイズのデータと各領域
の画像種別データと各領域の圧縮データとなる。
In the configuration diagram of FIG.
Is output to the data compression unit 7, the data compression method is selected, and the output image from the image input unit 1 is subjected to data compression by the corresponding data compression method. As a matter of course, data compression is selectively applied only to the data of the portion where the image data exists together with the position and size data of the area output from the boundary extraction unit 5. Therefore, the output from the data compression unit is data of the positions and sizes of a plurality of partial areas where image data exists, image type data of each area, and compressed data of each area.

【0054】以上詳述したように本実施例の画像圧縮装
置では、照明ムラ等の外乱が存在して入力される混在画
像において、外乱に影響され難い2値化パターンを最適
座標軸変換とニューロ判定を効果的に行使する構成の画
像データ圧縮装置を提供することにより、混在画像ファ
イルの総データ数が削減され、且つ画像種ごとの像域分
割を精度よく実行することができる。
As described above in detail, in the image compression apparatus according to the present embodiment, in a mixed image input in the presence of a disturbance such as illumination unevenness, a binary pattern which is hardly affected by the disturbance is subjected to the optimal coordinate axis conversion and the neuro determination. Is provided, the total number of data in the mixed image file is reduced, and the image area division for each image type can be performed with high accuracy.

【0055】また、この第1実施例によれば、初期段階
において、2値化と縮小処理を行い像域分割を行い、扱
う画像データ並びに画像種類の判定箇所が少なくて済む
ため、演算処理の負荷低減が図られハード化を容易に
し、実現性が高い画像データ圧縮装置である。
According to the first embodiment, in the initial stage, binarization and reduction processing are performed to divide the image area, and the number of image data to be handled and the number of image type determination points can be reduced. This is an image data compression apparatus that can reduce the load, facilitates hardware implementation, and is highly feasible.

【0056】次に図6には本発明による第2実施例とし
ての画像処理装置の領域分割の概念を示し説明する。
Next, FIG. 6 shows and explains the concept of area division of an image processing apparatus as a second embodiment according to the present invention.

【0057】この画像処理装置において、撮像装置等に
よって取り込まれた文書画像を記憶する画像メモリ45
と、前記画像メモリ45によって記憶された文書画像か
らエッジ抽出して2値化するエッジ抽出・2値化処理部
46と、前記エッジ抽出・2値化処理部46で2値化さ
れた文書画像を縮小化する縮小画像処理部47と、前述
した縮小画像中の近接した黒画素を連結してブロック化
するブロック処理部48と、前述したブロック処理画像
中の連結した黒画素の存在範囲から外接矩形の対角座標
を求める矩形領域抽出部49とで構成される。
In this image processing apparatus, an image memory 45 for storing a document image captured by an imaging device or the like.
An edge extraction / binarization processing unit 46 for extracting edges from the document image stored by the image memory 45 and binarizing the image; and a document image binarized by the edge extraction / binarization processing unit 46 A reduced image processing unit 47, a block processing unit 48 that connects adjacent black pixels in the reduced image described above to form a block, and a circumscribed range from the existing range of the connected black pixels in the block processed image described above. And a rectangular area extraction unit 49 for obtaining the diagonal coordinates of the rectangle.

【0058】次に図7には、第2実施例の画像処理装置
のさらに具体的な構成を示し説明する。
Next, FIG. 7 shows a more specific configuration of the image processing apparatus according to the second embodiment and will be described.

【0059】前記エッジ抽出・2値化処理部46におい
て、図示しない撮像装置によって取り込まれ、画像メモ
リ45に記憶された24ビットフルカラー文書画像を8
ビット白黒階調画像に変換する輝度変換回路50と、白
黒階調画像を記憶する階調画像メモリ51と、前記階調
画像メモリ51に記憶された白黒階調画像を横方向に走
査し、差分をとる横方向差分処理回路52と、前記差分
値を2値化する2値化処理回路53と、前記横方向差分
2値画像を記憶する横方向2値画像メモリ54、縦方向
の同様の操作を行なう縦方向差分処理回路55と縦方向
2値画像メモリ56と、前記2値画像メモリ54、56
に記憶された2値画像の論理和をとり、エッジ2値画像
を得る論理和演算回路57と、前記論理和演算結果の2
値画像を記憶する2値画像メモリ58とで構成される。
The edge extraction / binarization processing section 46 converts a 24-bit full-color document image captured by an image pickup device (not shown) and stored in the image memory 45 into 8
A luminance conversion circuit 50 for converting the image into a black and white gradation image, a gradation image memory 51 for storing the black and white gradation image, and a horizontal scanning of the black and white gradation image stored in the gradation image memory 51. , A binarization processing circuit 53 for binarizing the difference value, a horizontal binary image memory 54 for storing the horizontal difference binary image, and a similar operation in the vertical direction. Vertical difference processing circuit 55 for performing the above, a vertical binary image memory 56, and the binary image memories 54 and 56
A logical OR operation circuit 57 that obtains a logical OR of the binary images stored in the OR and obtains an edge binary image;
A binary image memory 58 for storing the value image.

【0060】そして前記縮小画像処理部47において
は、前記2値画像メモリ58に記憶された2値画像を縮
小する縮小画像処理回路59と、前記縮小画像を記憶す
る縮小画像メモリ60と、前記縮小画像メモリ60に記
憶された縮小画像中の弧立点等を除去するフィルタ処理
回路61とで構成される。
In the reduced image processing section 47, a reduced image processing circuit 59 for reducing the binary image stored in the binary image memory 58, a reduced image memory 60 for storing the reduced image, A filter processing circuit 61 for removing arc standing points and the like in the reduced image stored in the image memory 60.

【0061】さらにブロック処理部48においては、前
記フィルタ処理回路61からのフィルタ処理画像を縦横
に走査し、所定値以上の長さを持つ白ラン(長白ラン)
を検出する長白ラン検出回路62と、検出された長白ラ
ンを記憶するブロック画像メモリ63と、前記ブロック
画像メモリ63に記憶されたブロック画像にラベリング
を施すラベル処理回路64とで構成される。
Further, the block processing section 48 scans the filtered image from the filter processing circuit 61 vertically and horizontally, and executes a white run (long white run) having a length equal to or longer than a predetermined value.
, A block image memory 63 for storing the detected long white runs, and a label processing circuit 64 for labeling the block images stored in the block image memory 63.

【0062】そして、矩形領域抽出部49においては、
ラベル処理回路64によって、同一のラベルを付与され
た黒画素の存在範囲から各ブロックの外接矩形対角座標
(アドレス)を抽出するアドレス抽出回路65と、抽出
されたアドレスを記憶するアドレスメモリ66、前記ア
ドレスメモリ66に記憶されたアドレスを縮小化する前
の画像のアドレスに変換するアドレス変換回路67とで
構成される。
Then, in the rectangular area extracting section 49,
An address extraction circuit 65 for extracting the circumscribed rectangle diagonal coordinates (address) of each block from the existence range of black pixels to which the same label has been given by the label processing circuit 64; an address memory 66 for storing the extracted addresses; An address conversion circuit 67 converts an address stored in the address memory 66 into an address of an image before reduction.

【0063】このように構成された画像処理装置におい
て、撮像装置によって取り込まれ、画像記憶メモリ45
に記憶された24ビットフルカラー文書画像は、輝度変
換回路50によって8ビット白黒階調画像に変換され、
階調画像メモリ51に記憶される。輝度変換回路50と
しては種々のものが考えられる。例えば、RGBそれぞ
れに所定の値を乗じてその総和をとるような構成とす
る。横方向差分処理回路52では、階調画像メモリ51
に記憶された白黒階調画像を横方向に走査して差分をと
り、2値化処理回路53で差分値を2値化して横方向2
値画像メモリ54に送る。
In the image processing apparatus configured as described above, the image data is captured by the image capturing apparatus and stored in the image storage memory 45.
Is converted into an 8-bit black-and-white gradation image by the luminance conversion circuit 50,
It is stored in the gradation image memory 51. Various types of luminance conversion circuits 50 can be considered. For example, the configuration is such that each of RGB is multiplied by a predetermined value and the sum is obtained. In the horizontal difference processing circuit 52, the gradation image memory 51
Is scanned in the horizontal direction to obtain a difference, and the binarization processing circuit 53 binarizes the difference value to obtain a binary image.
The value is sent to the value image memory 54.

【0064】このような操作について図8を用いて説明
する。
Such an operation will be described with reference to FIG.

【0065】図8は、文書画像の一部を拡大して示した
一部画像68と、一部画像68に対応する部分の階調画
像データ69と、横方向2値画像メモリ54に記憶され
た一部画像68に対応する部分の2値画像70とを示し
ている。
FIG. 8 shows a partial image 68 in which a part of a document image is enlarged, gradation image data 69 corresponding to the partial image 68, and a horizontal binary image memory 54. A binary image 70 corresponding to the partial image 68 is shown.

【0066】前記一部画像68では、1つのマスが1画
素を表しており、前記階調画像データ69は、階調画像
メモリ51に記憶された一部画像68に対応する部分の
階調画像データを横方向に走査して隣接画素の差分をと
り、例えば、差分値が50を越えたときにその部分をエ
ッジと見なして、輝度の小さい方の画素の1(黒)を割
り当てて2値化し、横方向2値画像メモリ54に記憶さ
せる。
In the partial image 68, one cell represents one pixel, and the gradation image data 69 is a gradation image corresponding to the partial image 68 stored in the gradation image memory 51. The data is scanned in the horizontal direction to calculate the difference between adjacent pixels. For example, when the difference value exceeds 50, that part is regarded as an edge, and 1 (black) of the pixel with the smaller luminance is assigned to the binary. And store it in the horizontal binary image memory 54.

【0067】同様に、縦方向差分処理回路55では、縦
方向に差分をとって2値化し、縦方向2値画像メモリ5
6に送る。また論理和演算回路57では、前記横方向2
値画像メモリ54、縦方向2値画像メモリ56に記憶さ
れた差分2値画像の論理和をとり、得られたエッジ2値
画像は2値画像メモリ58に記憶される。
Similarly, in the vertical direction difference processing circuit 55, the difference is calculated in the vertical direction and binarized to obtain a binary image.
Send to 6. In the OR operation circuit 57, the horizontal direction 2
The logical sum of the difference binary images stored in the value image memory 54 and the vertical binary image memory 56 is calculated, and the obtained edge binary image is stored in the binary image memory 58.

【0068】そして縮小画像処理回路59では、例え
ば、2値画像メモリ58に記憶された512×512画
素からなる2値画像を縦横8画素からなる64×64個
の小領域に分割する。そして各小領域中で黒画素(値が
1の画素)を検出し、検出されれば‘1’とし、検出さ
れなければ‘0’とした画素の値で縮小画像を形成し、
縮小画像メモリ60に記憶する。
The reduced image processing circuit 59 divides, for example, a binary image composed of 512 × 512 pixels stored in the binary image memory 58 into 64 × 64 small areas composed of 8 pixels vertically and horizontally. Then, a black pixel (a pixel having a value of 1) is detected in each small area, and if it is detected, it is set to “1”;
It is stored in the reduced image memory 60.

【0069】次にフィルタ処理回路61では、縮小画像
メモリ60に記憶された縮小画像にフィルタをかけ、縮
小画像中のノイズを除去する。フィルタとしては種々の
ものが考えられるが、例えば、図9に示すような3×3
の弧立点除去フィルタ71を用いる。これは、注目画素
の8近傍の画素の値が同じとき、注目画素の値を近傍の
画素の値と同じにするものであり、左上から右下に向か
って順次走査する事によって弧立点を除去することが出
来る。長白ラン検出回路62では、前記フィルタ処理後
の縮小画像を縦横に走査して、例えば、16画素以上の
長さを持つ白ラン(長白ラン)を検出し、検出された部
分には‘0’(白画素)、それ以外の部分については
‘1’(黒画素)を割り当てることによって黒画素領域
を統合し、ブロック画像を生成して、ブロック画像メモ
リ63に記憶する。
Next, the filter processing circuit 61 filters the reduced image stored in the reduced image memory 60 to remove noise in the reduced image. Various filters are conceivable, for example, a 3 × 3 filter as shown in FIG.
Is used. This is to make the value of the target pixel the same as the value of the neighboring pixels when the values of the eight neighboring pixels of the target pixel are the same. Can be removed. The long white run detection circuit 62 scans the reduced image after the filtering process vertically and horizontally to detect a white run (long white run) having a length of, for example, 16 pixels or more, and detects "0" in the detected portion. Black pixels are integrated by assigning '1' (black pixels) to the other parts (white pixels), and a block image is generated and stored in the block image memory 63.

【0070】そしてラベル処理回路64では、ブロック
画像メモリ63に記憶されたブロック画像を走査して各
画素の連結状態を調べ、例えば、4連結している画素に
は同じラベルを付与することによってラベリングを行
う。
The label processing circuit 64 scans the block image stored in the block image memory 63 to check the connection state of each pixel. For example, by assigning the same label to four connected pixels, labeling is performed. I do.

【0071】このラベリング操作について図10を用い
て説明する。
The labeling operation will be described with reference to FIG.

【0072】図10において、文書画像中の注目画素x
とその近傍を拡大して示したものである。これまでの処
理で画像は2値化され、白画素は0、黒画素は1で与え
られている。いま、注目画素をx(image[i]
[j])、その上の画素をa(image[i][j−
1])、左隣の画素をb(image[i−1]
[j])とし、以下の条件に従ってラベリングを行な
う。(1)x=0ならばxにはラベル0を与える。 (2)a=bかつa=0ならば、xには新しいラベルを
与える。 (3)a=bかつa≠0ならば、xにはaと同じラベル
を与える。 (4)a>bかつb=0ならば、xにはaと同じラベル
を与える。 (5)a>bかつb≠0ならば、xにはbと同じラベル
を与え、aと同じラベルをもつ全ての画素のラベルをb
のラベルと同じにする。 (6)a<bかつa=0ならば、xにはbと同じラベル
を与える。 (7)a<bかつa≠0ならば、xにはaと同じラベル
を与え、bと同じラベルをもつ全ての画素のラベルをa
のラベルと同じにする。 但し、注目画素が画像上端のときはa=0、画像左端の
ときはb=0とする。
In FIG. 10, the target pixel x in the document image
And its vicinity are enlarged. The image is binarized by the processing so far, and white pixels are given by 0 and black pixels by 1. Now, let the pixel of interest be x (image [i]
[J]) and the pixel above it is denoted by a (image [i] [j−
1]), the pixel on the left is b (image [i−1]
[J]), and labeling is performed according to the following conditions. (1) If x = 0, x is given a label 0. (2) If a = b and a = 0, give x a new label. (3) If a = b and a ≠ 0, give x the same label as a. (4) If a> b and b = 0, give x the same label as a. (5) If a> b and b ≠ 0, x is given the same label as b, and labels of all pixels having the same label as a are set to b.
Make the same as the label. (6) If a <b and a = 0, give x the same label as b. (7) If a <b and a ≠ 0, x is given the same label as a, and labels of all pixels having the same label as b are set to a
Make the same as the label. However, when the target pixel is at the upper end of the image, a = 0, and when the target pixel is at the left end of the image, b = 0.

【0073】この処理を画像左上から順次行なうことに
よって、ラベリングが完了する。
The labeling is completed by sequentially performing this processing from the upper left of the image.

【0074】次にアドレス抽出回路65では、前記ブロ
ック画像メモリ63に記憶されたラベリング済みのブロ
ック画像を走査し、図11に示すように、同一のラベル
を付与された画素の座標の横方向最小・最大値(xsn
en)、および、縦方向最小・最大値(ysn,yen)を
検出し、画像領域の外接矩形対角座標(左上座標
(x sn,ysn)、右下座標(xen,yen))としてアド
レスメモリ66に記憶する。アドレス変換回路67で
は、アドレスメモリ66に記憶されたアドレスを縮小画
像処理回路59での縮小率に応じて拡大変換することに
よって、縮小化する前の画像のアドレスに変換する。
Next, the address extraction circuit 65
Labeled blocks stored in the block image memory 63.
Scan the image, and use the same label as shown in FIG.
The horizontal minimum / maximum value (xsn,
xen) And the minimum and maximum values in the vertical direction (ysn, Yen)
Detects the diagonal coordinates of the circumscribed rectangle of the image area (upper left coordinates
(X sn, Ysn), Lower right coordinates (xen, Yen)) As an ad
In the memory 66. In the address conversion circuit 67
Reduces the address stored in the address memory 66
To perform enlargement conversion according to the reduction ratio in the image processing circuit 59
Therefore, it is converted into the address of the image before the reduction.

【0075】例えば、縮小画像処理回路59での縮小率
が1/8の場合、以下の式によってアドレス変換を行な
い、アドレスメモリ66の内容を書き換える。
For example, when the reduction ratio in the reduced image processing circuit 59 is 1/8, the address conversion is performed by the following equation, and the contents of the address memory 66 are rewritten.

【0076】 xs ′=xs ×8 ys ′=ys ×8 xe ′=(xe +1)×8−1 ye ′=(ye
1)×8−1 こうして、アドレスメモリ66に記憶された外接矩形対
角座標と画像メモリ45に記憶された元の画像とを領域
分割処理結果として出力する。
[0076] x s '= x s × 8 y s' = y s × 8 x e '= (x e +1) × 8-1 y e' = (y e +
1) × 8-1 In this way, the circumscribed rectangle diagonal coordinates stored in the address memory 66 and the original image stored in the image memory 45 are output as a result of the area division processing.

【0077】次に図12乃至図14には、本実施例にお
ける各処理過程の出力画像を示す。
Next, FIGS. 12 to 14 show output images in each processing step in this embodiment.

【0078】図12乃至図14において、画像メモリ4
5に記憶される、文字と写真からなる領域分割対象文書
画像73と、2値画像メモリ58に記憶されたエッジ抽
出・2値化処理画像74と、縮小画像メモリ60に記憶
された縮小処理画像75と、ブロック画像メモリ63に
記憶されたブロック処理画像76と、アドレスメモリ6
6に記憶されたアドレスによって、画像メモリ45に記
憶された文書画像の画像領域分割結果を示した画像77
とを示す。
In FIGS. 12 to 14, the image memory 4
5, a region-separated document image 73 composed of characters and photographs, an edge extraction / binarization processed image 74 stored in the binary image memory 58, and a reduced processed image stored in the reduced image memory 60 75, the block processed image 76 stored in the block image memory 63, and the address memory 6
6, the image 77 indicating the image area division result of the document image stored in the image memory 45 by the address stored in the image memory 45.
And

【0079】これにより、画像領域の端部が欠けること
なく領域分割することができる。また、画像を矩形領域
で切り出すので、文書画像の領域分離を効率的に行なう
ことができる。
As a result, it is possible to divide the image area without losing the edge of the image area. Further, since the image is cut out in a rectangular area, the area separation of the document image can be efficiently performed.

【0080】この第2実施例の画像処理装置は、画像の
縮小処理を行なう前に隣接画素の輝度の差分を利用した
エッジ抽出・2値化を行なっているため、文字の端点等
のエッジ部分を縮小画像に忠実に反映させることがで
き、画像領域の端部が欠けることなく、また、白黒の反
転した文書画像に対しても、効率よく画像領域を分割す
ることができる。
The image processing apparatus of the second embodiment performs edge extraction and binarization using the difference in luminance between adjacent pixels before performing image reduction processing. Can be faithfully reflected on the reduced image, and the image area can be efficiently divided without missing the edge of the image area and even with respect to the inverted black and white document image.

【0081】また、この画像処理装置は、縮小画像に対
して弧立点除去フィルタをかけることによって、誤分割
の原因となる余計な黒画素を消去しているので、効率よ
く画像領域を分割することが可能となる。さらに、ブロ
ック処理部では、長白ランを検出することによって黒画
素領域をブロック化しているので、予め文字列方向がわ
かっていない場合でも、画像を走査して短い白ランを検
出し、それを黒ランに置き換えて論理積をとるといった
処理が不要となり、効率よく画像領域を分割することが
可能となる。また本実施例では、ブロック化した黒画素
にラベリングを行なっているので、黒画素の連結状態が
簡潔に表現され、効率よく画像領域を分割することが可
能となる。
Further, since the image processing apparatus removes unnecessary black pixels which cause erroneous division by applying an arc elimination filter to the reduced image, the image area is efficiently divided. It becomes possible. Furthermore, since the black pixel area is blocked by detecting long white runs in the block processing unit, even if the character string direction is not known in advance, the image is scanned to detect short white runs, and the black run is detected. It is not necessary to perform a process of taking a logical product by replacing with a run, and the image area can be efficiently divided. Further, in this embodiment, since the black pixels that have been blocked are labeled, the connected state of the black pixels is simply represented, and the image area can be efficiently divided.

【0082】次に図15には、本発明による第3実施例
としての画像処理装置について説明する。この画像処理
装置は、前述した第2実施例の図7におけるエッジ抽出
・2値化処理部46のみを変形し、他の構成部は同等で
あり、ここではエッジ抽出・2値化処理部46のみを説
明する。なお、本実施例の構成部で図7に示した構成部
と同等なものには同じ参照符号を付してその説明を省略
する。
Next, an image processing apparatus according to a third embodiment of the present invention will be described with reference to FIG. This image processing apparatus is the same as that of the second embodiment described above except that only the edge extraction / binarization processing section 46 in FIG. 7 is modified, and the other components are the same. Only the explanation will be given. The same components as those shown in FIG. 7 in the present embodiment are denoted by the same reference numerals, and description thereof will be omitted.

【0083】図15において、階調画像メモリ51に記
憶された白黒階調画像を横方向に走査し、比をとる横方
向除去処理回路78、前記比の値を2値化する2値化処
理回路79、縦方向に横方向除去処理回路78と同様の
操作を行なう縦方向除算処理回路80が設けられてい
る。
In FIG. 15, a black-and-white gradation image stored in the gradation image memory 51 is scanned in the horizontal direction, and a horizontal direction removal processing circuit 78 for taking a ratio is provided. A circuit 79 and a vertical division processing circuit 80 for performing the same operation as the horizontal removal processing circuit 78 in the vertical direction are provided.

【0084】このように構成された画像処理装置におい
て、横方向除算処理回路78では、階調画像メモリ51
に記憶された白黒階調画像を横方向に走査して比をと
り、2値化処理回路79で比の値を2値化して横方向2
値画像メモリ54に送る。
In the image processing apparatus constructed as described above, the horizontal division processing circuit 78 includes the gradation image memory 51.
Is scanned in the horizontal direction to obtain a ratio, and the binarization processing circuit 79 binarizes the value of the ratio to obtain a binary image in the horizontal direction.
The value is sent to the value image memory 54.

【0085】この2値化操作について図16を用いて説
明する。
The binarization operation will be described with reference to FIG.

【0086】図16は、文書画像の一部を拡大した一部
画像68と、一部画像68に対応する部分の階調画像デ
ータ69と、一部画像68に対応する部分の2値画像8
1とを示す。
FIG. 16 shows a partial image 68 obtained by enlarging a part of a document image, gradation image data 69 corresponding to the partial image 68, and a binary image 8 corresponding to the partial image 68.
1 is shown.

【0087】図16において、一部画像68は、文書画
像の一部を拡大したもので、1つのマスが1画素を表し
ている。階調画像データ69は、階調画像メモリ51に
記憶された一部画像68に対応する部分の画像データで
あり、一部画像68に対応する部分の2値画像である。
この2値画像を図に示すように横方向に走査して隣接画
素の輝度の大小を調べ、その比をとる。そして、例え
ば、比の値が0.9未満であったときに、輝度の小さい
方の画素に‘1’(黒)を割り当てて2値化し、横方向
2値画像メモリ54に記憶させる。そして2値画像は、
横方向2値画像メモリ54に記憶された一部画像68に
対応する部分であり、同様に縦方向除算処理回路80で
は、縦方向に比をとって2値化し、縦方向2値画像メモ
リ56に送る。
In FIG. 16, a partial image 68 is an enlarged part of a document image, and one square represents one pixel. The gradation image data 69 is image data of a portion corresponding to the partial image 68 stored in the gradation image memory 51, and is a binary image of a portion corresponding to the partial image 68.
The binary image is scanned in the horizontal direction as shown in the figure to determine the magnitude of the luminance of the adjacent pixels, and the ratio is determined. Then, for example, when the value of the ratio is less than 0.9, “1” (black) is assigned to the pixel with the smaller luminance to be binarized and stored in the horizontal binary image memory 54. And the binary image is
The portion corresponding to the partial image 68 stored in the horizontal binary image memory 54. Similarly, the vertical division processing circuit 80 binarizes the image by taking the ratio in the vertical direction, Send to

【0088】次に、前述した第2実施例と同様の処理に
よって行う領域分割について説明する。図17乃至図1
9は、本実施例における各処理過程の出力画像を示す。
Next, a description will be given of the area division performed by the same processing as in the above-described second embodiment. 17 to 1
9 shows an output image of each processing step in this embodiment.

【0089】図17乃至図19において、領域分割対象
文書画像82は、画像メモリ45で記憶される文字と写
真からなる。また2値化処理画像83は、2値画像メモ
リ58に記憶された2値化処理画像であり、縮小処理画
像84は、縮小画像メモリ60に記憶された縮小処理画
像である。そしてブロック処理画像85は、ブロック画
像メモリ63に記憶されたブロック処理画像であり、領
域分割画像86は、アドレスメモリ66に記憶されたア
ドレスによって、画像メモリ45に記憶された文書画像
の画像領域分割結果を示した画像である。
17 to 19, the document image 82 to be divided into regions is composed of characters and pictures stored in the image memory 45. The binarized image 83 is a binarized image stored in the binary image memory 58, and the reduced image 84 is a reduced image stored in the reduced image memory 60. The block processing image 85 is a block processing image stored in the block image memory 63, and the area division image 86 is an image area division of the document image stored in the image memory 45 according to the address stored in the address memory 66. It is an image showing a result.

【0090】このような画像処理により、画像領域の端
部が欠けることなく領域分割することができる。また、
画像を矩形領域で切り出すので、文書画像の領域分離を
効率的に行なうことができる。
By such image processing, it is possible to divide an image area without losing the edge of the image area. Also,
Since the image is cut out in a rectangular area, the area separation of the document image can be performed efficiently.

【0091】従って、この第3実施例の画像装置では、
画像の縮小処理を行なう前に、隣接画素の輝度の比を利
用したエッジ抽出・2値化を行なっており、文字の端点
等のエッジ部分を縮小画像に忠実に反映させることがで
き、画像領域の端部が欠けること、効率よく画像領域を
分割することが可能となる。さらに、本実施例では、隣
接画素の輝度比の大きさに基づいた2値化を行なってい
るので、シェーディングのかかった文書画像の領域分割
も可能となる。
Therefore, in the image apparatus of the third embodiment,
Before performing image reduction processing, edge extraction and binarization are performed using the luminance ratio of adjacent pixels, so that edge portions such as character end points can be faithfully reflected in the reduced image. And the image area can be efficiently divided. Furthermore, in the present embodiment, since binarization is performed based on the magnitude of the luminance ratio between adjacent pixels, it is possible to divide an area of a shaded document image.

【0092】例えば、原画像パターンをG、照度パター
ンをF、観測される画像パターンをYとすると、YはF
とGの積(Y=F×G or log Y=log F+log G)に
よって表される。従って、照度パターンFの変化が観測
画像パターンGの変化に比較して十分緩やかであれば、
シェーディングのかかった画像でも隣接画素の輝度比は
保存されていると考えることができる。
For example, if the original image pattern is G, the illuminance pattern is F, and the observed image pattern is Y, Y is F
And G (Y = F × G or log Y = log F + log G). Therefore, if the change in the illuminance pattern F is sufficiently gentle compared to the change in the observed image pattern G,
Even in an image subjected to shading, it can be considered that the luminance ratio of adjacent pixels is preserved.

【0093】これに対し、隣接画素の輝度差は保存され
ず、暗部では小さく、明部では大きくなるので、暗部で
はエッジが正しく検出されなくなる。すなわち、隣接画
素の輝度差ではなく、輝度比をとることによって、エッ
ジ抽出を行なうことにより、強いシェーディングのかか
った文書画像の領域分割も可能となる。さらに本手法で
は、輝度の低い部分では僅かな輝度の変化も検出される
ので、エッジのみならず、輝度変化のある低輝度部分も
同時に抽出することができる。
On the other hand, the luminance difference between adjacent pixels is not preserved, and is small in a dark part and large in a bright part, so that an edge cannot be correctly detected in a dark part. That is, the edge extraction is performed by taking the luminance ratio instead of the luminance difference between the adjacent pixels, so that it is possible to divide the area of the document image that is strongly shaded. Further, in the present method, a slight change in luminance is detected in a low luminance portion, so that not only an edge but also a low luminance portion having a luminance change can be simultaneously extracted.

【0094】なお、同様な効果を得るための変形例とし
て、図7におけるエッジ抽出・2値化処理部46を図2
0に示すような構成とすることにより可能になる。これ
は、輝度の比をとる代わりに、対数処理回路87によっ
て対数輝度を求め、これに所定値を乗じて階調画像メモ
リ51に記憶しておき、これを縦横に走査して差分をと
り、2値化するものである。
As a modification for obtaining the same effect, the edge extraction / binarization processing section 46 in FIG.
This is made possible by the configuration shown in FIG. Instead of taking the luminance ratio, the logarithmic processing circuit 87 finds logarithmic luminance, multiplies it by a predetermined value, stores it in the gradation image memory 51, and scans it vertically and horizontally to obtain the difference, This is binarized.

【0095】このような2値化操作について図21を用
いて説明する。
Such a binarization operation will be described with reference to FIG.

【0096】図21において、対数輝度データ88は、
階調画像メモリ51に記憶された68に対応する部分の
対数輝度のデータであり、これを図に示すように横方向
に走査して隣接画素の差分をとり、例えば、差分値が5
を越えたときに対数輝度の小さい方の画素に‘1’
(黒)を割り当てて2値化し、横方向2値画像メモリ1
4に記憶させる。2値画像41は、横方向2値画像メモ
リ14に記憶された一部画像68に対応する部分の2値
画像である。以下、第1実施例と同様の処理を行ない、
図15と同様の効果を得ることができる。
In FIG. 21, logarithmic luminance data 88 is
The logarithmic luminance data of the portion corresponding to 68 stored in the gradation image memory 51 is scanned in the horizontal direction as shown in the figure to obtain the difference between adjacent pixels.
Is exceeded, the pixel with smaller logarithmic luminance is set to '1'
(Black) and binarize it, and store the binary image memory 1 in the horizontal direction.
4 is stored. The binary image 41 is a binary image corresponding to the partial image 68 stored in the horizontal binary image memory 14. Hereinafter, the same processing as in the first embodiment is performed.
The same effect as in FIG. 15 can be obtained.

【0097】次に図22には、本発明による第4実施例
としての画像処理装置の構成を示し説明する。この第4
実施例においては、第2実施例の図7に示したエッジ抽
出・2値化処理部46を変形し、他の構成部は同じ構成
とする。なお、第4実施例の構成部において、図7に示
した構成部と同等のものには同し符号を付してその説明
を省略する。
FIG. 22 shows the structure of an image processing apparatus according to a fourth embodiment of the present invention. This fourth
In this embodiment, the edge extraction / binarization processing unit 46 shown in FIG. 7 of the second embodiment is modified, and the other components have the same configuration. In the components of the fourth embodiment, the same components as those shown in FIG. 7 are denoted by the same reference numerals, and description thereof will be omitted.

【0098】この画像処理装置において、微分フィルタ
処理回路89は、階調画像メモリ51に記憶された白黒
階調画像からエッジを抽出するための回路であり、エッ
ジ画像メモリ90は、前記微分フィルタ処理により得ら
れたエッジ画像を記憶するメモリであり、2値化処理回
路91は、前記エッジ画像メモリ90に記憶されたエッ
ジ画像を2値化する処理回路である。
In this image processing apparatus, a differential filter processing circuit 89 is a circuit for extracting an edge from a black-and-white gradation image stored in the gradation image memory 51. The binarization processing circuit 91 is a processing circuit for binarizing the edge image stored in the edge image memory 90.

【0099】このように構成された画像処理装置におい
て、微分フィルタ処理回路89では、階調画像メモリ5
1に記憶された白黒階調画像に微分フィルタをかけてエ
ッジを抽出し、エッジ画像メモリ90に記憶させる。
In the image processing apparatus configured as described above, the differential filter processing circuit 89 includes the gradation image memory 5
An edge is extracted by applying a differential filter to the black-and-white gradation image stored in No. 1 and stored in the edge image memory 90.

【0100】この微分フィルタとしては、種々のものが
考えられるが、例えば、Laplacianフィルタを
用いる。前記2値化処理回路91では、エッジ画像メモ
リ90に記憶されたエッジ画像を2値化し、2値画像メ
モリ58に記憶させる。また2値化処理としては種々の
ものが考えられるが、例えば、注目画素とその近傍8画
素の計9画素について最大値を求め、その1/2を閾値
として注目画素を2値化する。他にも平均や分散、最大
・最小値の差等を組み合わせた2値化も勿論可能であ
る。なお、固定閾値により2値化を行なう場合には、他
の構成例として図23に示すように構成で、微分フィル
タ処理と2値化処理を同時に行なうことができる。
Various types of differential filters can be considered. For example, a Laplacian filter is used. In the binarization processing circuit 91, the edge image stored in the edge image memory 90 is binarized and stored in the binary image memory 58. Various binarization processes are conceivable. For example, a maximum value is obtained for a total of 9 pixels, that is, a target pixel and eight neighboring pixels, and the target pixel is binarized using 1/2 as a threshold value. In addition, it is of course possible to perform binarization by combining the average, the variance, the difference between the maximum and minimum values, and the like. When binarization is performed using a fixed threshold, the differential filter processing and the binarization processing can be performed simultaneously with another configuration example as shown in FIG.

【0101】図24を参照して、この微分フィルタ処理
と2値化処理の操作について説明する。
Referring to FIG. 24, the operation of the differential filter processing and the binarization processing will be described.

【0102】図24において、一部画像92は、文書画
像の一部を拡大して示したもので、1つのマスが1画素
を表している。また階調画像データ93は、階調画像メ
モリ11に記憶された一部画像92に対応する部分の画
像データであり、これをLaplacianフィルタ9
4を通過させてエッジ画像データ95を得る。例えば、
注目画素とその近傍8画素の計9画素について最大値を
求め、その1/2を閾値として注目画素を2値化する。
こうして得られたエッジ画像96は、2値画像メモリ5
8に送られ、記憶される。以下の画像処理は、第2実施
例と同様の処理によって領域分割が行なわれる。
In FIG. 24, a partial image 92 is an enlarged view of a part of a document image, and one square represents one pixel. The gradation image data 93 is a part of the image data corresponding to the partial image 92 stored in the gradation image memory 11, and is stored in the Laplacian filter 9.
4 to obtain edge image data 95. For example,
The maximum value is obtained for a total of 9 pixels, that is, the target pixel and eight neighboring pixels, and the target pixel is binarized using 1/2 as a threshold value.
The edge image 96 thus obtained is stored in the binary image memory 5.
8 and stored. In the following image processing, area division is performed by the same processing as in the second embodiment.

【0103】これにより、画像領域の端部が欠けること
なく領域分割することができる。また、画像を矩形領域
で切り出すので、文書画像の領域分離を効率的に行なう
ことができる。
As a result, it is possible to divide the image area without losing the edge of the image area. Further, since the image is cut out in a rectangular area, the area separation of the document image can be efficiently performed.

【0104】従って、第4実施例の画像処理装置は、画
像の縮小処理を行なう前に、微分フィルタを利用したエ
ッジ抽出・2値化を行なっており、文字の端点等のエッ
ジ部分を縮小画像に忠実に反映させることができ、画像
領域の端部が欠けることなく、効率よく画像領域を分割
することが可能となる。さらに、本実施例では、エッジ
抽出手段として2次元の微分フィルタを用いているの
で、階調画像を縦横にそれぞれ走査する必要がなく、構
成を簡単にすることが可能となる。
Therefore, the image processing apparatus according to the fourth embodiment performs edge extraction and binarization using a differential filter before performing image reduction processing. And the image area can be efficiently divided without losing the edge of the image area. Further, in the present embodiment, since a two-dimensional differential filter is used as the edge extracting means, it is not necessary to scan the gradation image vertically and horizontally, and the configuration can be simplified.

【0105】なお、予め対象画像の絵柄等の方向性を認
識してから微分フィルタの係数を適当に設定することに
より、特定の方向に連結した画像領域のみを分割する事
等行なってもよく、対象画像の特徴に応じた選択的且
つ、適応的な領域分割が可能となる。
Note that, by recognizing the directionality of the picture or the like of the target image in advance, and by appropriately setting the coefficients of the differential filter, it is possible to divide only the image region connected in a specific direction. Selective and adaptive area division according to the characteristics of the target image can be performed.

【0106】次に図25には、本発明による第5実施例
としての画像処理装置の構成を示し説明する。この第5
実施例においては、第2実施例の図7に示したエッジ抽
出・2値化処理部46を変形し、他の構成部は同じ構成
とする。なお、第5実施例の構成部において、図7に示
した構成部と同等のものには同し符号を付してその説明
を省略する。
Next, FIG. 25 shows the structure of an image processing apparatus according to a fifth embodiment of the present invention, and will be described. This fifth
In this embodiment, the edge extraction / binarization processing unit 46 shown in FIG. 7 of the second embodiment is modified, and the other components have the same configuration. In the components of the fifth embodiment, the same components as those shown in FIG. 7 are denoted by the same reference numerals, and description thereof will be omitted.

【0107】この画像処理装置において、縮小画像メモ
リ60に記憶された縮小画像を縦横に走査し、所定値以
下の長さを持つ白ラン(短白ラン)を検出する短白ラン
検出回路97と、前記短白ラン検出回路97で検出され
た短白ランを黒ランに置換する白→黒置換回路98と、
横方向の走査により短白ランを黒ランに置換して得られ
たブロック画像を記憶する横ブロック画像メモリ99
と、縦方向の走査により短白ランを黒ランに置換して得
られたブロック画像を記憶する縦ブロック画像メモリ1
00と、前記ブロック画像メモリ99、100に記憶さ
れたブロック画像の論理積をとり、ブロック画像を得る
論理積演算回路101とで構成される。
In this image processing apparatus, a short white run detecting circuit 97 that scans the reduced image stored in the reduced image memory 60 vertically and horizontally and detects a white run (short white run) having a length equal to or less than a predetermined value. A white → black replacement circuit 98 for replacing the short white run detected by the short white run detection circuit 97 with a black run,
A horizontal block image memory 99 for storing a block image obtained by replacing short white runs with black runs by scanning in the horizontal direction.
And a vertical block image memory 1 for storing a block image obtained by replacing short white runs with black runs by vertical scanning.
00 and an AND operation circuit 101 that obtains a logical product of the block images stored in the block image memories 99 and 100 to obtain a block image.

【0108】このように構成された画像処理装置は、短
白ラン検出回路97が縮小画像メモリ60に記憶された
縮小画像を走査して、所定値以下の長さを持つ白ラン
(短白ラン)を検出し、白→黒置換回路98で、検出さ
れた白ラン中の画素値を‘0’(白画素)から1(黒画
素)に反転させる。この走査に縦横について行ない、横
ブロック画像メモリ99および、縦ブロック画像メモリ
100に記憶させる。そして論理積演算回路101で
は、前記画像メモリ99、100に記憶されたブロック
画像の論理積をとり、ブロック画像を生成し、ブロック
画像メモリ63に記憶させる。
In the image processing apparatus configured as described above, the short white run detection circuit 97 scans the reduced image stored in the reduced image memory 60 and outputs a white run (short white run) having a length equal to or less than a predetermined value. ) Is detected, and the pixel value in the detected white run is inverted from “0” (white pixel) to 1 (black pixel) by the white → black replacement circuit 98. This scanning is performed vertically and horizontally, and is stored in the horizontal block image memory 99 and the vertical block image memory 100. The AND operation circuit 101 calculates the AND of the block images stored in the image memories 99 and 100, generates a block image, and stores the block image in the block image memory 63.

【0109】この操作について図26を用いて説明す
る。
This operation will be described with reference to FIG.

【0110】図26において、一部画像102は縮小画
像メモリ60に記憶された縮小画像の一部を拡大して示
したもので、1つのマスが1画素を表している。これを
横方向に走査し、例えば、長さが16画素未満の白ラン
を検出して、これを黒ランに置換する。こうして得られ
た横ブロック画像は、横ブロック画像メモリ99に記憶
される。
In FIG. 26, a partial image 102 is an enlarged view of a part of the reduced image stored in the reduced image memory 60. One cell represents one pixel. This is scanned in the horizontal direction, and for example, a white run having a length of less than 16 pixels is detected and replaced with a black run. The horizontal block image thus obtained is stored in the horizontal block image memory 99.

【0111】そして横ブロック画像103は、一部画像
102に対応する部分の横ブロックの画像であり、斜線
部は置換された黒ランを表している。同様に、縮小画像
を縦方向に走査し、短白ランを黒ランに置換することに
よって得られた縦ブロック画像は、縦ブロック画像メモ
リ100に記憶される。
The horizontal block image 103 is an image of a horizontal block of a portion corresponding to the partial image 102, and a hatched portion indicates a replaced black run. Similarly, a vertical block image obtained by scanning the reduced image in the vertical direction and replacing short white runs with black runs is stored in the vertical block image memory 100.

【0112】また、縦ブロック画像104は、一部画像
102に対応する部分の縦ブロックの画像であり、斜線
部は置換された黒ランを表している。横,縦ブロック画
像メモリ99,100に記憶された前記ブロック画像
は、論理積演算回路101によって論理積が演算され、
ブロック画像が生成される。ブロック画像105は、
横,縦ブロック画像103,104の論理積から生成さ
れた、一部画像102に対応する部分のブロック画像で
あり、網掛部は置換された黒画素を表している。以下、
この実施例は、第2実施例と同様の画像処理を行い領域
分割を行なわれる。
The vertical block image 104 is an image of a vertical block of a portion corresponding to the partial image 102, and a hatched portion indicates a replaced black run. The logical product of the block images stored in the horizontal and vertical block image memories 99 and 100 is calculated by a logical product calculation circuit 101.
A block image is generated. The block image 105 is
This is a block image of a portion corresponding to the partial image 102 generated from the logical product of the horizontal and vertical block images 103 and 104, and the hatched portion represents the replaced black pixel. Less than,
In this embodiment, image processing similar to that of the second embodiment is performed to perform region division.

【0113】これにより、画像領域の端部が欠けること
なく領域分割することができる。また、画像を矩形領域
で切り出すので、文書画像の領域分割を効率的に行なう
ことができる。
As a result, it is possible to divide the image area without losing the edge of the image area. Further, since the image is cut out in a rectangular area, the area division of the document image can be efficiently performed.

【0114】従って、第5実施例の画像処理装置は、縮
小画像中の黒画素を統合するためのブロック処理に、短
白ラン/黒ラン変換を行なっており、縮小画像中の黒画
素をほぼ矩形状のブロックに統合することができ、効率
よく画像領域を分割することが可能となる。
Therefore, the image processing apparatus of the fifth embodiment performs the short white run / black run conversion in the block processing for integrating the black pixels in the reduced image, so that the black pixels in the reduced image are almost completely converted. The image area can be integrated into a rectangular block, and the image area can be efficiently divided.

【0115】以上説明した画像処理装置は、エッジ抽出
・2値化処理部46、縮小画像処理部47、ブロック処
理部48、矩形領域抽出部49は、第2実施例〜第5実
施例に掲げたものに限られるものではなく、その他の公
知の技術を用いて構成することもできる。また、これら
の組合せも、実施例に掲げたものに限られるものではな
く、各処理部を交換して構成することも可能であること
は勿論である。
In the image processing apparatus described above, the edge extraction / binarization processing section 46, reduced image processing section 47, block processing section 48, and rectangular area extraction section 49 are described in the second to fifth embodiments. However, the present invention is not limited to this, and may be configured using other known techniques. Also, these combinations are not limited to those described in the embodiments, and it is a matter of course that each processing unit can be replaced with another.

【0116】なお、文字列の方向等が予めわかっている
場合には、その方向にのみ画素の統合を行なえばよいの
で、より簡単な構成によって実現できる。
If the direction of the character string is known in advance, the pixels need only be integrated in that direction, so that it can be realized with a simpler configuration.

【0117】また、これら実施例に示した装置における
画像処理はソフトウェア上で行なうようにしてもよいこ
とは勿論である。
Further, it goes without saying that the image processing in the apparatus shown in these embodiments may be performed on software.

【0118】次に図27には、本発明による第6実施例
としての画像処理装置の構成を示し説明する。
FIG. 27 shows the structure of an image processing apparatus according to a sixth embodiment of the present invention.

【0119】この画像処理装置は、大別して、入力され
るディジタル画像(混在画像)を画像種類が未知状態の
ままで同種画像領域ごとに矩形分割する同種画像領域抽
出部と、分割された同種画像部分領域の画像種類を判定
し、決定する画像種判定部より構成される。
This image processing apparatus is roughly classified into a similar image region extracting unit that divides an input digital image (mixed image) into rectangles for each similar image region while keeping the image type unknown, and a divided similar image region. An image type determination unit that determines and determines the image type of the partial area.

【0120】この画像処理装置において、異なる画像の
種類、例えば活字体文字、手書き文字、写真、絵柄画像
等が混在して記載されているドキュメントファイルは、
ビデオカメラ、イメージスキャナによってフルカラー画
像が撮像されてアナログ画像入力信号としてディジタル
画像変換器111に入力される。
In this image processing apparatus, a document file in which different types of images, for example, typeface characters, handwritten characters, photographs, picture images, and the like are mixedly described,
A full-color image is picked up by a video camera or an image scanner and input to the digital image converter 111 as an analog image input signal.

【0121】前記ディジタル画像変換器111は、アナ
ログ画像入力信号を変換してディジタル画像信号を出力
する。出力データは、一旦、画像フレームメモリ112
に入力されて、一時蓄積される。また既に、ディジタル
画像信号に変換されている蓄積画像データ及び伝送画像
データは、直接、画像フレームメモリ112に入力され
て同様に、一時蓄積される。
The digital image converter 111 converts an analog image input signal and outputs a digital image signal. The output data is stored in the image frame memory 112 once.
And is temporarily stored. The stored image data and the transmission image data already converted to the digital image signal are directly input to the image frame memory 112 and similarly temporarily stored.

【0122】前記画像フレームメモリ112から出力さ
れたディジタル画像データは、同種画像領域抽出部11
3を構成する同種画像領域分割部114に入力される。
この同種画像領域分割部114は、画像種類は未知の状
態で同種類の画像が存在する領域の背景との境界を抽出
して、分割していく処理を行う。
The digital image data output from the image frame memory 112 is
3 is input to the same-type image region dividing unit 114 that forms the third image.
The same-type image region dividing unit 114 performs a process of extracting a boundary of an area where an image of the same type is present in a state where the image type is unknown and the background and dividing the image.

【0123】一枚の混在画像から分割された複数の同種
画像領域は、それぞれ矩形領域として算出されて、定め
られた1稜角の水平・垂直位置を示す分割領域アドレス
データと、矩形領域のサイズ(幅・高さ)が出力され
る。具体的な分割処理方法は、従来より種々考案されて
いる手法を用いてもよし、前記図6に示した実施例を利
用してもよい。例えば、取り扱うデータそのものを削減
して処理の負荷を軽減するために、まず画像フレームメ
モリ112からの出力フルカラー画像をモノクロ画像に
変換し、さらに2値化する。
A plurality of similar image areas divided from one mixed image are each calculated as a rectangular area, and divided area address data indicating the horizontal and vertical positions of one determined edge angle, and the size of the rectangular area ( Width / height) is output. As a specific division processing method, various methods conventionally devised may be used, or the embodiment shown in FIG. 6 may be used. For example, in order to reduce the processing load by reducing the data to be handled, a full-color image output from the image frame memory 112 is first converted to a monochrome image, and further binarized.

【0124】そして2値化された2値画像を縮小化処理
して、ローパスフィルターでフィルタリングしてエッジ
抽出を行い、抽出エッジ画像を2値化する。2値化した
エッジ画像のエッジ部分を水平・垂直方向それぞれに対
し線分近似して矩形の境界を抽出する。このようにして
同種画像領域を求めることもできる。
Then, the binarized binary image is reduced, filtered with a low-pass filter to extract edges, and the extracted edge image is binarized. The edge portion of the binarized edge image is approximated by a line segment in each of the horizontal and vertical directions to extract a rectangular boundary. In this manner, the same type image area can be obtained.

【0125】そして同種画像領域分割部114から出力
された分割領域アドレスデータとサイズは、探索ブロッ
ク領域選択部115に入力される。探索ブロック領域選
択部115では、求められた同種画像領域のどの部分を
実際に画像種判定の着目領域にするかを選択する。選択
された着目領域は、予め設定されるか或いは同種画像領
域のサイズに適応的に変化する大きさをもつ所定サイズ
の矩形小ブロック領域とする。
The divided area address data and the size output from the same type image area dividing section 114 are input to the search block area selecting section 115. The search block area selection unit 115 selects which part of the obtained same-type image area is actually used as the target area for the image type determination. The selected region of interest is a rectangular small block region of a predetermined size having a size that is set in advance or adaptively changes according to the size of the same type of image region.

【0126】図28には、このようにして分割処理され
た一枚の混在画像を簡略化して示す。この図の場合、分
割された同種画像領域はA〜Hの9つ存在している。例
えば、判定対象ブロックは同種画像領域Hに置かれ、こ
の領域内を移動して以後の判定処理が施され、同種画像
領域Hの画像種類が特定される。この矩形小ブロック領
域は、後述する処理で実際に画像種判定の対象となる判
定対象ブロックであり、そのサイズは少なくとも同種画
像領域のサイズより小さい。
FIG. 28 is a simplified illustration of one mixed image thus divided. In the case of this figure, nine divided similar image areas A to H exist. For example, the determination target block is placed in the same type image region H, moves in this region, and the subsequent determination process is performed, and the image type of the same type image region H is specified. This rectangular small block area is a determination target block that is actually a target of image type determination in processing described later, and its size is at least smaller than the size of the same type image area.

【0127】前記探索ブロック領域選択部115におい
て選択される判定対象ブロックの位置は、同種画像領域
内で複数回、同位置を重複しないよう選択される。選択
された判定対象ブロックの位置・サイズのデータは、画
像フレームメモリ112に入力されて、対応する画像メ
モリ部分の画像データが画像フレームメモリ112から
出力される。
The position of the determination target block selected by the search block region selection section 115 is selected a plurality of times in the same type image region so as not to overlap the same position. The data of the position and size of the selected determination target block is input to the image frame memory 112, and the image data of the corresponding image memory portion is output from the image frame memory 112.

【0128】そして画像フレームメモリ112から出力
された判定対象ブロックのフルカラー画像は、画像種判
定部116を構成する判定対象ブロック画像メモリ11
7に入力されて一時蓄積される。この判定対象ブロック
画像メモリ117から出力されるフルカラー画像データ
は、モノクロ画像変換部118に入力されて輝度レベル
データからなるモノクロ画像データに変換される。
The full-color image of the block to be determined output from the image frame memory 112 is stored in the block memory
7 and temporarily stored. The full-color image data output from the determination target block image memory 117 is input to the monochrome image conversion unit 118 and converted into monochrome image data including luminance level data.

【0129】本実施例では、画像種類の判定に際して
は、画像の輝度情報のみで判定し、色情報は使用しない
ことを前提とする。これは、1つには全体の処理過程に
おいて極力前置段階で取り扱うデータを削減して計算処
理の負荷を軽減して実用性のより高い処理とするためで
ある。また、1つには入力画像全面或いは一部が仮にモ
ノクロ画像であってもなんら画像種類の判定には影響が
ない、汎用性の高い処理を実現するためである。
In this embodiment, it is assumed that the image type is determined based on only the luminance information of the image and that the color information is not used. This is, in part, to reduce the data to be handled in the preceding stage as much as possible in the entire processing process, to reduce the load of the calculation processing, and to make the processing more practical. One reason is that even if the entire input image or a part of the input image is a monochrome image, it does not affect the determination of the image type at all, and realizes highly versatile processing.

【0130】前記モノクロ画像変換部118から出力さ
れる判定対象画像のモノクロ画像データは、まず水平差
分検出器119と垂直差分検出器120に同時に入力さ
れて、出力データがそれぞれバッファメモリ121とバ
ッファメモリ122に入力され、一時蓄積される。水平
差分検出器119では、モノクロ画像変換部118から
出力される判定対象領域の各画素の輝度成分から構成さ
れる画像データにおいて、任意画素と隣接する画素の輝
度レベルの差分値を水平方向に対して算出するものであ
る。
The monochrome image data of the judgment target image output from the monochrome image conversion unit 118 is first input simultaneously to the horizontal difference detector 119 and the vertical difference detector 120, and the output data is stored in the buffer memory 121 and the buffer memory 121, respectively. 122 and temporarily stored. In the horizontal difference detector 119, in the image data composed of the luminance components of the respective pixels in the determination target area output from the monochrome image converter 118, the difference value between the luminance level of an arbitrary pixel and an adjacent pixel is determined in the horizontal direction. Is calculated.

【0131】具体的には、判定対象画像のモノクロ画像
をM×N画素の矩形画像とし、図29(a)に示すよう
に、水平・垂直の画素配列をそれぞれi、jで記述すれ
ば、その任意画素の輝度レベルは、 yij 但し、i,j:0,1,2,…,M−1 (1) と表わせて、求める水平差分値Δhijは、 Δhij=y(i+1)j−yij 但し、i,j:0,1,2,…,M−2 (2) となる。同様にして、垂直差分値Δvijは、 Δvij=yi(J+1)−yij 但し、i,j:0,1,2,…,N−2 (3) となる。
Specifically, if the monochrome image of the image to be determined is a rectangular image of M × N pixels, and the horizontal and vertical pixel arrays are described by i and j, respectively, as shown in FIG. The luminance level of the arbitrary pixel is y ij, where i, j: 0, 1, 2,..., M−1 (1), and the horizontal difference value Δh ij to be obtained is Δh ij = y (i + 1 ) j− y ij where i, j: 0, 1, 2,..., M−2 (2) Similarly, the vertical difference value Δv ij becomes Δv ij = y i (J + 1) −y ij where i, j: 0, 1, 2,..., N−2 (3).

【0132】これらの水平・垂直差分値がなす水平差分
マップ及び垂直差分マップは、計算結果が一旦、バッフ
ァメモリに格納されると共に、輝度修正パラメータ算出
部123に入力されて、輝度を修正するためのパラメー
タが算出される。
The calculation results of the horizontal difference map and the vertical difference map formed by these horizontal / vertical difference values are temporarily stored in the buffer memory and input to the brightness correction parameter calculation unit 123 to correct the brightness. Are calculated.

【0133】この輝度修正パラメータ算出部123で
は、図29(b)で示すブロック図に従って処理が進め
られる。水平差分マップの中から急峻なエッジ部分を除
去した部分の差分データを平均したものを平均水平差分
( avrΔh)、また垂直差分マップの中から急峻なエッ
ジ部分を除去した部分の差分データを平均したものを平
均垂直差分( avrΔv)と称して算出する。
In the brightness correction parameter calculating section 123, the process proceeds according to the block diagram shown in FIG. The average of the difference data of the portion from which the steep edge portion was removed from the horizontal difference map was averaged the horizontal difference (avrΔh), and the difference data of the portion from which the steep edge portion was removed from the vertical difference map was averaged. This is called an average vertical difference (avrΔv) and calculated.

【0134】図29(c)に示すように判定対象画像に
おける水平方向(H)、垂直方向(V)と差分値(D)
の3次元直交空間(H,V,D)でのベクトルh(1,
0,avrΔh)とベクトルv(0,1, avrΔv)がな
す平面ベクトルp(h,v,d)、 平面ベクトルp=α×ベクトルh+β×ベクトルv (4) に対する法線ベクトルnは、 法線ベクトルn=( avrΔh, avrΔv,−1) (5) から求める。
As shown in FIG. 29C, the horizontal direction (H), the vertical direction (V) and the difference value (D) in the image to be determined are determined.
In a three-dimensional orthogonal space (H, V, D)
0, avrΔh) and a vector v (0, 1, avrΔv) make a normal vector n to a plane vector p (h, v, d), and a plane vector p = α × vector h + β × vector v (4) Vector n = (avrΔh, avrΔv, -1) (5)

【0135】また、水平差分マップ上で急峻なエッジ部
分を“0”としてそれ以外を“1”としたビットマップ
と、垂直差分マップ上で急峻なエッジ部分を“0”とし
てそれ以外を“1”としたビットマップが前記処理のと
きに作成され、これら2つのビットマップの論理和をと
ったビットマップをマスクパターンとする。但し、急峻
なエッジとは、差分値の絶対値が所定の閾値より大きい
か否かで決定される。このようにして、輝度修正パラメ
ータとして、前記法線ベクトルnとマスクパターンが輝
度修正パラメータ算出部123から出力される。
A bit map in which a steep edge portion on the horizontal difference map is “0” and the others are “1”, and a steep edge portion on the vertical difference map is “0” and others are “1”. A bitmap "" is created at the time of the above processing, and a bitmap obtained by calculating a logical sum of these two bitmaps is used as a mask pattern. However, the steep edge is determined by whether or not the absolute value of the difference value is larger than a predetermined threshold. In this way, the normal vector n and the mask pattern are output from the luminance correction parameter calculation unit 123 as the luminance correction parameters.

【0136】前記輝度修正パラメータ算出部123から
出力される法線ベクトルnとマスクパターンのデータ
は、輝度レベル修正処理部124に入力されて、同時に
入力されるモノクロ変換部118から判定対象ブロック
の輝度データを修正する。輝度レベル修正処理部124
で行われる輝度レベルの修正処理では、図31に示され
る処理過程が以下のように行なわれる。
The normal vector n and the mask pattern data output from the brightness correction parameter calculation unit 123 are input to the brightness level correction processing unit 124, and the brightness of the determination target block is input from the monochrome conversion unit 118, which is input simultaneously. Modify the data. Brightness level correction processing unit 124
In the brightness level correction process performed in step (1), the process shown in FIG. 31 is performed as follows.

【0137】まず、図31(a)に示すようにモノクロ
変換部118からの輝度レベルイメージデータに対し
て、先に求めたマスクパターンが乗じられ、急峻なエッ
ジ部分の輝度データが取り除かれる。次に、図31
(b)に示されるような判定対象ブロックの水平・垂直
・輝度の3次元直交空間(H,V,Y)において、求め
た法線ベクトルnの方向を有する座標軸を修正座標軸m
Yとして設定し、ブロック内全ての画素に対して、その
輝度レベルyijを修正座標軸mYに射影した修正輝度レ
ベルmyijを算出し、修正輝度レベルごとに度数を求め
て修正輝度ヒストグラムを算出する。修正輝度ヒストグ
ラムは、修正輝度に対する正規化が施される。
First, as shown in FIG. 31A, the brightness level image data from the monochrome conversion unit 118 is multiplied by the previously obtained mask pattern, and the brightness data at the steep edge portion is removed. Next, FIG.
In the horizontal / vertical / luminance three-dimensional orthogonal space (H, V, Y) of the determination target block as shown in (b), the coordinate axis having the direction of the obtained normal vector n is changed to the modified coordinate axis m.
Y is set, and for all the pixels in the block, the corrected brightness level my ij is calculated by projecting the brightness level y ij on the corrected coordinate axis mY, and the frequency is obtained for each corrected brightness level to calculate the corrected brightness histogram. . The corrected luminance histogram is normalized with respect to the corrected luminance.

【0138】尚、図31(b)における斜線部での度数
分布は、修正前の輝度レベルの度数分布を示すものであ
る。
The frequency distribution in the hatched portion in FIG. 31B shows the frequency distribution of the luminance level before correction.

【0139】正規化方法は、種々考えられる。例えば修
正輝度ヒストグラムを、 f(my) 但し、my=0〜255 (6) とし、修正輝度が0から最大にわたって積分した任意修
正輝度myijでの積算度数をg(my)とする。g(m
y)は、
There are various normalization methods. For example, the corrected luminance histogram is f (my) where my = 0 to 255 (6), and the integration frequency at an arbitrary corrected luminance my ij obtained by integrating the corrected luminance from 0 to the maximum is g (my). g (m
y) is

【0140】[0140]

【数1】 と表せ、ヒストグラムの総和度数をgt とする。修正輝
度に対する正規化は、g(my)/gt =5%を満足す
るmyを最小修正輝度レベルmin _myとし、g(m
y)/gt =95%を満足するmyを最大修正輝度レベ
ルmax _myとすれば、次式より任意の修正輝度レベル
myijより正規化修正輝度レベルを求めることもでき
る。
(Equation 1) And it expressed, to the sum frequency of the histogram and g t. Normalization to modify luminance, and g (my) / g t = minimum Fixed my satisfying 5% luminance level min _my, g (m
y) / g t = 95% is assumed to be the maximum corrected luminance level max_my, and the normalized corrected luminance level can be obtained from an arbitrary corrected luminance level my ij according to the following equation.

【0141】[0141]

【数2】 これは、修正輝度レベルのヒストグラムの輝度レベルレ
ンジを求めて、固定した所定のレンジに線形変換する正
規化処理である(図31(b)におけるmy軸方向での
正規化)。なお、最小修正輝度レベル、最大修正輝度レ
ベルを定めるとヒストグラムの積算度数の総和度数に対
する割合は、前記例5%,95%に限定されるものでは
なく、適切な値が設定されれば良い。
(Equation 2) This is a normalization process in which the brightness level range of the histogram of the corrected brightness level is obtained and linearly converted to a fixed predetermined range (normalization in the direction of the my axis in FIG. 31B). When the minimum corrected luminance level and the maximum corrected luminance level are determined, the ratio of the integrated frequency of the histogram to the total frequency is not limited to the above examples of 5% and 95%, but may be set to appropriate values.

【0142】次に度数の正規化であるがこれは度数のピ
ークにそって正規化するもので、図31(b)において
発生頻度軸方向での正規化である。
[0142] Although a next normalization of the frequency which is intended to normalize along the peak of power and have you in FIG. 31 (b)
Is the normalization in the frequency axis direction.

【0143】以上により、輝度レベル修正処理部124
では、モノクロ変換部118からの判定対象ブロックの
任意の画素(i、j)が修正されて輝度レベルmyij
なり、これがx軸方向で正規化されて、最終的に正規化
修正輝度レベルnmyijとして求められる。
As described above, the brightness level correction processing section 124
Then, any pixel (i, j) of the determination target block from the monochrome conversion unit 118 is corrected to a luminance level my ij , which is normalized in the x-axis direction, and finally normalized normalized luminance level nmy ij Is required.

【0144】そして輝度修正パラメ−タ部123、輝度
レベル修正処理部124で行われる一連の輝度修正処理
は、判定対象ブロックの画像に低周波の照明ムラ等が作
用している場合に、それを低減する処理を行うことと、
該ブロックの画像のダイナミックレンジの違いが該ヒス
トグラムの分布形状に依存することを暖和する目的で行
う。また、低周波成分除去の目的で通常の高域通過フィ
ルタを利用するのに比べてコンボリューション演算がな
く処理が簡単である。結局輝度レベル修正処理部124
からは、算出された前記正規化修正輝度レベルnmyij
が出力される。
A series of brightness correction processes performed by the brightness correction parameter unit 123 and the brightness level correction processing unit 124 are performed when low-frequency illumination unevenness or the like is acting on the image of the block to be determined. Performing the process of reducing,
This is performed for the purpose of relieving that the difference in the dynamic range of the image of the block depends on the distribution shape of the histogram. Also, compared to using a normal high-pass filter for the purpose of removing low-frequency components, there is no convolution operation and the processing is simple. After all, the brightness level correction processing unit 124
From the calculated corrected normalized brightness level nmy ij
Is output.

【0145】前述した図27において、バッファメモリ
121から出力される水平差分値Δhijとバッファメモ
リ122から出力される垂直差分値ΔVijと正規化修正
輝度レベルnmyijの3つの特徴パラメータは、ベクト
ル量子化器125に入力されて、これら特徴パラメータ
を成分として定義される新たなる3次元直交空間(Δ
H,ΔV,nmY)に於ける特徴ベクトルf(Δh,Δ
v,nmy)をベクトル量子化する。
In FIG. 27, the three characteristic parameters of the horizontal difference value Δh ij output from the buffer memory 121, the vertical difference value ΔV ij output from the buffer memory 122, and the normalized corrected luminance level nmy ij are represented by vector A new three-dimensional orthogonal space (Δ is input to the quantizer 125 and defined using these feature parameters as components.
H, ΔV, nmY), the feature vector f (Δh, Δ
v, nmy) is vector-quantized.

【0146】なお、図30(a)〜(d)は、それぞれ
画像種毎の特徴ベクトルの発生分布を示す図であり、
(a)は活字体文字、(b)は手書き文字、(c)は写
真画像、(d)は絵柄画像における特徴ベクトルの一例
を示す図である。各図において、縦軸には修正輝度nm
Y(modify Y)、横軸には垂直差分値ΔV(d
elta V)と、水平差分値ΔH(delta H)
をとった3次元直交空間上に各特徴ベクトルの分布をプ
ロットしている。これらの図から、特徴ベクトルの違い
に応じて画像種を判別することが可能であることがわか
る。
FIGS. 30A to 30D are diagrams showing the distribution of occurrence of feature vectors for each image type.
(A) is a typeface character, (b) is a handwritten character, (c) is a photograph image, (d) is a figure showing an example of a feature vector in a picture image. In each figure, the vertical axis represents the corrected brightness nm
Y (modify Y), and the vertical axis represents the vertical difference value ΔV (d
delta V) and the horizontal difference value ΔH (delta H)
The distribution of each feature vector is plotted on a three-dimensional orthogonal space in which is taken. From these figures, it can be seen that it is possible to determine the image type according to the difference between the feature vectors.

【0147】またベクトル量子化器125では、判定対
象ブロック内の任意の画素(i,j)の全ての画素に対
する特徴ベクトルfij(Δhij,Δvij,nmyij)が
入力され処理される。ベクトル量子化器の出力となる量
子化ベクトルは、予め複数の画像種類を有する複数の判
定対象ブロック画像から上記特徴パラメータを算出し
て、3次元直間交空間(Δh,Δv,nmy)を上にプ
ロットした発生分布より求める。即ち発生分布を所定数
の局所空間に最適に分割して、それぞれの局所空間内の
特徴ベクトルの発生確立が等しくなるようにした上で、
各局所領域内の平均ベクトルをその局所領域の代表ベク
トルとするのである。これら代表ベクトルが即ち量子化
ベクトルとなる。
The vector quantizer 125 receives and processes the feature vectors f ij (Δh ij , Δv ij , nmy ij ) of all the arbitrary pixels (i, j) in the block to be determined. A quantized vector, which is an output of the vector quantizer, is calculated in advance from a plurality of determination target block images having a plurality of image types, and the three-dimensional intersecting space (Δh, Δv, nmy) is calculated. From the occurrence distribution plotted in That is, the generation distribution is optimally divided into a predetermined number of local spaces so that the probability of occurrence of the feature vector in each local space is equal,
The average vector in each local area is set as a representative vector of the local area. These representative vectors are the quantization vectors.

【0148】具体的な代表ベクトルを算出する方法とし
ては種々の方法があるが、その一例として、LBGアル
ゴリズム[“An Algorithm for Vector Quantizer Desi
gn"YOSEPH LINDE etc.IEEE TRANSACTION ON COMUNICAT
IONS,VOL.COM-28,N0.1 JANUARY 1980}]を用いた場合
には、局所領域内に存在する全ての特徴ベクトルとその
局所領域の代表ベクトルとのユークリッド距離が他の局
所領域の代表ベクトルとのユークリッド距離に対し最短
になるように代表ベクトルが決定される。
There are various methods for calculating a specific representative vector. One example is the LBG algorithm [“An Algorithm for Vector Quantizer Desirable”.
gn "YOSEPH LINDE etc. IEEE TRANSACTION ON COMUNICAT
IONS, VOL.COM-28, N0.1 JANUARY 1980}], the Euclidean distance between all the feature vectors existing in the local area and the representative vector of the local area is the representative of other local areas. The representative vector is determined so as to be the shortest with respect to the Euclidean distance from the vector.

【0149】従って、正攻法的にベクトル量子化を実行
するとすれば、任意の特徴ベクトルがベクトル量子化器
125に入力されると、前述したように、予め求めた所
定数の代表ベクトルの全てに対するユークリッド距離が
計測されて、最も距離が短いものが選択される。この選
択された代表ベクトルが入力された特徴ベクトルの量子
化ベクトルとして出力される。
Therefore, if vector quantization is executed in a straightforward manner, when an arbitrary feature vector is input to the vector quantizer 125, as described above, Euclidean processing is performed on all of the predetermined number of representative vectors obtained in advance. The distance is measured and the one with the shortest distance is selected. The selected representative vector is output as a quantized vector of the input feature vector.

【0150】このようにベクトル量子化を正攻法で行う
と、計算処理としての負荷が一般に重くなる。
When the vector quantization is performed in a straightforward manner as described above, the load of the calculation processing generally increases.

【0151】そこで本実施例では、階層型フィードフォ
ワードのニューラルネットワークによるベクトル量子化
器を用いる。
In this embodiment, a vector quantizer based on a hierarchical feedforward neural network is used.

【0152】図32は、そのニューラルネットワークの
構成を示したものである。特徴ベクトルfij(Δhij
Δvij,nmyij)は、3次元の入力ベクトルが入力部
131より、ニューラルネットワーク132に入力さ
れ、学習時においては、ユークリッド距離算出部133
にも同時に入力される。ニューラルネットワーク132
は、フィードフォワードの階層型ネットワークとし、3
入力の入力層134及び所定数の層の数とニューロ素子
を有する中間層135と、K個の出力をもつ出力層13
6で構成される。
FIG. 32 shows the configuration of the neural network. The feature vector f ij (Δh ij ,
Δv ij , nmy ij ) is obtained by inputting a three-dimensional input vector from the input unit 131 to the neural network 132, and during learning, the Euclidean distance calculating unit 133.
Is also input at the same time. Neural network 132
Is a feedforward hierarchical network.
An input input layer 134, an intermediate layer 135 having a predetermined number of layers and neuro elements, and an output layer 13 having K outputs
6.

【0153】この出力層136からの出力は、出力部1
37に出力される。ここで、Kは事前に試行錯誤して設
定されたベクトル数であり、前述した代表ベクトル数と
一致する。このベクトル量子化器を構成するニューラル
ネットワーク132の学習は、付設される教師データ生
成部138を使って行われる。教師データ生成部138
では、前記手法によって、事前に求められた代表ベクト
ルfk [k=0,1,…,K]のデータが格納されて
いる代表ベクトルデータメモリ139から出力される代
表ベクトルfk のデータと、入力部131から出力され
る特徴ベクトルがユークリッド距離算出部133に入力
されて、任意の特徴ベクトルと全ての代表ベクトルとf
k 距離が先の正攻法を使って計算される。
The output from the output layer 136 is output to the output unit 1
37. Here, K is the number of vectors set in advance through trial and error, and matches the number of representative vectors described above. Learning of the neural network 132 constituting the vector quantizer is performed using the attached teacher data generation unit 138. Teacher data generator 138
Then, the data of the representative vector f k output from the representative vector data memory 139 in which the data of the representative vector f k [k = 0, 1,... A feature vector output from the input unit 131 is input to the Euclidean distance calculation unit 133, and an arbitrary feature vector, all representative vectors, and f
The k- distance is calculated using the straightforward method above.

【0154】次に、最短距離選択部140にて最短距離
をとる代表ベクトルfk を選択して出力部137へ入力
し、出力層に設定されたK個の代表ベクトルfk に対応
づけられた出力ブランチのどれか1つが発火するよう指
示する。例えば,発火させたい出力を‘1’、その他を
‘0’とする。これがニューラルネットワーク132に
入力された特徴ベクトルと、ー対ーに対応させたい量子
化ベクトルを表すことになる。
Next, the shortest distance selecting unit 140 selects the representative vector f k having the shortest distance, inputs the selected representative vector f k to the output unit 137, and associates the representative vector f k with the K representative vectors f k set in the output layer. Instructs any one of the output branches to fire. For example, the output to be fired is "1", and the others are "0". This represents the feature vector input to the neural network 132 and the quantization vector to be associated with the feature vector.

【0155】このような一連の学習過程は、公知なバッ
クプロパゲーション法で行うものであって、混在画像の
中から画像種類を特定しないで特徴ベクトルが複数選択
されて、出力の誤差が設定値以下になるまで繰り返され
る。ー旦、ニューラルネットワーク132の学習が終了
し、全ての重みが決定されたならば、教師データ生成部
138は、切り放される。即ちニューラルネットワーク
132は、入力としての特徴ベクトルが与えられると、
それに対応した量子化ベクトルを出力するベクトル量子
化器としての機能が備わったことになる。
Such a series of learning processes is performed by a known back propagation method. A plurality of feature vectors are selected without specifying an image type from mixed images, and an output error is set to a set value. Repeated until: On the other hand, when learning of the neural network 132 is completed and all weights are determined, the teacher data generation unit 138 is cut off. That is, the neural network 132 receives the feature vector as an input,
This means that a function as a vector quantizer for outputting a corresponding quantization vector is provided.

【0156】このようにして構築したベクトル量子化器
により、計算量の低減が図られ、高速性に富むものとな
る。ただし、ニューラルネットワークを利用した場合
は、入力した特徴ベクトルに対し、出力が必ず1つに限
定されない状態が出現することも考えられるが、その場
合は出力としての量子化ベクトルが複数存在しても構わ
ず、候補量子化ベクトルの扱いとなる。
With the vector quantizer constructed in this way, the amount of calculation can be reduced and the speed can be increased. However, when a neural network is used, a state in which the output is not necessarily limited to one for the input feature vector may occur, but in this case, even if there are a plurality of quantized vectors as the output, Regardless, the candidate quantization vector is handled.

【0157】前記ベクトル量子化器125から出力され
た単一の量子化ベクトルもしくは複数の候補量子化ベク
トルは、量子化ベクトル計数部126に入力される。こ
の量子化ベクトル計数部126では、量子化ベクトルf
k 毎に、その発生頻度の計数を行い、量子化ベクトルf
k のヒストグラムを生成する。さらに量子化ベクトルの
ヒストグラムの度数は、扱う判定対象ブロックの画素数
の変更に対して、普遍性を維持するために量子化ベクト
ルfk の最大度数が一定値になるように正規化される。
A single quantized vector or a plurality of candidate quantized vectors output from the vector quantizer 125 are input to a quantized vector counting unit 126. In the quantization vector counting unit 126, the quantization vector f
For each k , the occurrence frequency is counted, and the quantization vector f
Generate a histogram of k . Furthermore, the frequency of the histogram of the quantization vector is normalized such that the maximum frequency of the quantization vector fk becomes a constant value in order to maintain the universality with respect to the change in the number of pixels of the block to be determined.

【0158】前記量子化ベクトルfk のヒストグラム
は、特徴パターン判定部127に入力されて、その形状
を確認して判定画像種類を出力する。特徴パターン判定
部127は、フィードフォワードの階層型ニューラルネ
ットワークで構成される。入力層は、量子化ベクトルの
数のK個の入力をもつ。中間層は試行錯誤的に適切に決
定された層数とニューロン素子をもち、出力層は判定し
たい画像種類の数の出力をもつ。例えば、活字体文字、
手書き文字、写真、絵柄画像、背景画像の5つの画像種
類を混在画像の中から判定して分離したいのであれば、
5出力をもつことになる。
The histogram of the quantized vector f k is input to the feature pattern determination unit 127, which checks the shape of the histogram and outputs the determined image type. The feature pattern determination unit 127 is configured by a feedforward hierarchical neural network. The input layer has K inputs of the number of quantization vectors. The intermediate layer has the number of layers and neuron elements appropriately determined by trial and error, and the output layer has outputs of the number of image types to be determined. For example, typescript,
If you want to determine the five image types of handwritten characters, photos, design images, and background images from the mixed images and separate them,
It will have 5 outputs.

【0159】この特徴パターン判定部127のニューラ
ルネットワークの学習は、入力された量子化ベクトルの
ヒストグラムのパターン形状と対応関係にある探索ブロ
ック選択部115で選択された判定対象ブロック画像の
種類を教師データとして出力層に与えられる。学習時、
教師データとしての判定対象ブロックの画像種類は人為
的に認識して決定する。そして学習過程は、バックプロ
パゲーション手法により、出力誤差が設定誤差以下にな
るまで、判定対象画像の種類をさまざまに変えて繰り返
し行われる。前記特徴パターン判定部127では、入力
される量子化ベクトルのヒストグラムの形状(特徴パタ
ーン)と画像の種類に相関関係があることを利用して、
ニューラルネットワークにより認識処理を行っている。
敢えてニューラルネットワークを用いているのは、一般
的なパターンマッチングのように多量の参照テンプレー
トと比較決定する膨大な計算を回避することと、特徴パ
ターンと画像種類との相関性が多少劣化しても判定確率
への影響が少ないことを利点とするためである。学習が
終了した特徴パターン判定127は、既に入力される量
子化ベクトルのヒストグラム形状に対し、画像種類を判
定し出力する画像種判定器になっている。
The learning of the neural network by the feature pattern determination section 127 is performed by using the type of the block image to be determined selected by the search block selection section 115 having a correspondence relationship with the pattern shape of the histogram of the input quantization vector as the training data. To the output layer. When learning,
The image type of the determination target block as teacher data is determined by artificial recognition. The learning process is repeatedly performed by the back propagation method while changing the type of the determination target image in various ways until the output error becomes equal to or less than the set error. The feature pattern determination unit 127 utilizes the fact that there is a correlation between the shape (feature pattern) of the histogram of the input quantization vector and the type of image,
Recognition processing is performed by a neural network.
The reason for using a neural network is to avoid a huge amount of calculations that make comparisons with a large number of reference templates, as in general pattern matching, and even if the correlation between feature patterns and image types is slightly degraded. This is because it has an advantage that the influence on the determination probability is small. The feature pattern determination 127 for which the learning has been completed is an image type determination unit that determines and outputs an image type with respect to the histogram shape of the already input quantization vector.

【0160】そして特徴パターン判定部127の出力
は、画像種決定部128入力されて判定対象ブロックの
画像種最終判断が行われる。先のベクトル量子化器12
5のときと同様に、特徴パターン判定部127のニュー
ラルネットワーク出力は、唯一つの画像種を出力しない
場合も考えられる。従って、その判定結果に対する評価
基準が必要であり、決定する処理が必要である。
The output of the characteristic pattern determination section 127 is input to the image type determination section 128, and the image type final determination of the determination target block is performed. Vector quantizer 12
Similarly to the case of 5, the neural network output of the feature pattern determination unit 127 may not output only one image type. Therefore, an evaluation criterion for the determination result is required, and a process of determining the evaluation criterion is required.

【0161】本実施例では、図33に示す構成を一例と
して、入力データが5個の画像種類に対応してI1 ,I
2 ,〜,I5 として入力されるとすると、決定画像種判
断部141により、画像種の判断を保留するか決定する
かの判断がなされる。もし、 I1 > th1 但し、i=1,2,…5 且つ、(I1 の最大値)ー(I1 の2番目に大きい値)
>th2 ならば、処理は決定画像種出力部142に移り、Ii
中の最大値を示す画像種類max(Ii )を決定した画
像種類とする。そうでなければ、決定保留処置部143
に処理を移して、画像種類の決定は行われない。なお、
th1 、th2 は所定の閾値を示し、本実施例で最終決
定される画像の種類の人為的に所望する画像の種類に対
する誤り確率が最小になるように統計的に予め設定され
る。決定された、任意の判定対象ブロック画像種決定結
果は、決定結果蓄積部144に入力されて一時的に蓄積
される。次に再び、探索ブロック領域選択部115に戻
って、異なる判定対象ブロックが同種画像領域内で選択
されて決定結果蓄積部144までの処理過程が所定回数
繰り返される。したがって決定結果蓄積部144には、
同種画像領域に於ける異なる判定対象ブロックの判定結
果が蓄積されることになる。決定結果蓄積部144の所
定数の決定結果は、多数決部145に入力されて多数決
判定された後、対応する同種画像領域の画像種類の最終
決定が画像種決定部128から出力される。
In the present embodiment, taking the configuration shown in FIG. 33 as an example, the input data corresponds to I 1 , I 1
2, ~, when inputted as I 5, by determining the image type judgment unit 141, determination of whether to determine whether to hold the image type determination is made. If, I 1> th 1 where, i = 1, 2, ... 5 and, (the maximum value of I 1) over (second largest value of I 1)
> If th 2, the process moves to decision image type output unit 142, and image type max (I i) image type determining the indicating the maximum value among the I i. Otherwise, the decision suspension unit 143
And the image type is not determined. In addition,
th 1 and th 2 indicate predetermined threshold values, and are statistically preset so that the error probability of the image type finally determined in the present embodiment with respect to the artificially desired image type is minimized. The determined determination result of the arbitrary block image type to be determined is input to the determination result storage unit 144 and is temporarily stored. Next, returning to the search block area selection unit 115 again, a different determination target block is selected in the same type of image area, and the process up to the determination result accumulation unit 144 is repeated a predetermined number of times. Therefore, the determination result accumulation unit 144 includes
The determination results of different determination target blocks in the same type image area are accumulated. After a predetermined number of determination results of the determination result storage unit 144 are input to the majority decision unit 145 and a majority decision is made, the final determination of the corresponding image type of the same type of image region is output from the image type determination unit 128.

【0162】画像種決定部128から出力される最終決
定した画像種類、前記同種画像領域のアドレスデータ及
びサイズが、本実施例の混在画像像域分離装置から出力
される。
The finally determined image type output from the image type determination unit 128, the address data and the size of the same type image area are output from the mixed image image area separation apparatus of this embodiment.

【0163】次に図34には、本発明による第7実施例
としての画像処理装置の構成を示し説明する。この第7
実施例の構成部材は、図27に示した第6実施例の構成
部材と同等の部材には同じ参照符号を付して、その説明
を省略する。すなわち、第7実施例は、図27に示した
量子化ベクトル計数部126までを同じ構成とし、それ
以降最終出力までの構成が異なっている。
FIG. 34 shows the structure of an image processing apparatus according to a seventh embodiment of the present invention. This seventh
The same reference numerals as in the sixth embodiment shown in FIG. 27 denote the same components in the embodiment, and a description thereof will be omitted. That is, the seventh embodiment has the same configuration up to the quantization vector counting unit 126 shown in FIG. 27, and differs from the configuration up to the final output thereafter.

【0164】前述した第6実施例に示したように、量子
化ベクトル計数部126では、任意の同種画像領域内の
任意の判定対象ブロックに対する特徴ベクトルをベクト
ル量子化し、そのヒストグラムの度数が正規化されて出
力される。いま、探索ブロック領域選択部115で選択
される任意の同種画像領域内の判定対象ブロックを選択
順序に従って番号をつけ識別すると、正規化された量子
化ベクトルは、 量子化ベクトルfk [L] k=0,1,…,K
L=0,1,…,L と表すことができる。但し、量子化されるベクトル数を
K個、選択される判定対象ブロックの総数をLとする。
別の言い方をすれば、Lは任意の同種画像領域内を判定
対象ブロック単位で探索する際の探索回数のことであ
る。量子化ベクトル計数部126からの出力の量子化ベ
クトルfk [L]は、それぞれに接続されたK個の計数
累積部1〜計数累積部Kに入力し、L回分累積加算され
て、その結果ベクトルFk を出力する。即ち、
As described in the sixth embodiment, the quantization vector counting unit 126 vector-quantizes a feature vector for an arbitrary determination target block in an arbitrary homogeneous image region, and the histogram frequency is normalized. Is output. Now, when the determination target blocks in an arbitrary homogeneous image area selected by the search block area selection unit 115 are numbered and identified according to the selection order, the normalized quantization vector becomes the quantization vector f k [L] k = 0,1, ..., K
L = 0, 1,..., L. Here, it is assumed that the number of vectors to be quantized is K and the total number of selected determination target blocks is L.
In other words, L is the number of times of searching in an arbitrary same-type image area for each determination target block. The quantized vector f k [L] output from the quantized vector counting unit 126 is input to each of the K counting and accumulating units 1 to K connected thereto, and is accumulated and added L times. and outputs a vector F k. That is,

【0165】[0165]

【数3】 を出力する。なお、探索回数が場合によって種々変化さ
せたい場合には、ベクトルFk がLに依存するのを避け
るために、ベクトルFk をLで割って、出力ヒストグラ
ムの度数を平均としてもよい。
(Equation 3) Is output. Incidentally, when it is desired to variously changed optionally is number of searches in order to avoid vector F k is dependent L, and by dividing the vector F k by L, and the frequency of the output histogram may be an average.

【0166】このように任意の同種画像領域内の複数判
定対象ブロックの累積した度数により、量子化ベクトル
のヒストグラムを求めるには、探索ブロック領域選択部
115から計数累積部151までの一連の処理過程を所
定回(L回)繰り返さなければならない。
As described above, in order to obtain a histogram of a quantization vector from the accumulated frequencies of a plurality of determination target blocks in an arbitrary same-type image area, a series of processing steps from the search block area selection unit 115 to the count accumulation unit 151 Must be repeated a predetermined number of times (L times).

【0167】そして探索回数出力された値ベクトルFk
は、第6実施例と同様に構成される特徴パターン判定部
127に入力されて、識別したい画像種類に応じた信
号、例えばI1 〜I5 が出力される。
Then, the value vector F k for which the number of searches is output
Is input to the feature pattern determination unit 127 configured in the same manner as in the sixth embodiment, and signals corresponding to the type of image to be identified, for example, I 1 to I 5 are output.

【0168】次に、出力された画像種類の信号I1 〜I
5 は、最尤度判断部152に入力されて最大値を示す画
像種類を最尤判断画像種として出力する。この実施例で
は、画像種類の決定に際して、保留は行わない。
Next, the output image type signals I 1 to I 1
5 outputs the image type that is input to the maximum likelihood determination unit 152 and indicates the maximum value as the maximum likelihood determination image type. In this embodiment, no suspension is performed when determining the image type.

【0169】本実施例の混在画像像域分離装置から最終
出力として、最尤度判断部152から出力される画像種
類、第6実施例と同様な同種画像領域のアドレスデータ
及びサイズが出力される。
As the final output from the mixed image image area separation apparatus of the present embodiment, the image type output from the maximum likelihood determining section 152, and the address data and the size of the same type image area as in the sixth embodiment are output. .

【0170】この第7実施例の構成と画像種判定手順を
実現すれば、画像種類と対応づけられる量子化ベクトル
のヒストグラムのパターンは、同種画像領域内の探索領
域を拡大した効果を生み出す特徴抽出するための母集団
を大きく取ることができる。しかも探索領域を拡大する
にも関わらず、ブロック単位毎の判定処理を必要としな
いことが優れている。
If the configuration of the seventh embodiment and the image type determination procedure are realized, the pattern of the histogram of the quantization vector associated with the image type will be the feature extraction that produces the effect of expanding the search area within the same type image area. A large population to carry out. In addition, it is excellent that the determination processing for each block unit is not required, even though the search area is expanded.

【0171】次に図35には、本発明による第8実施例
としての画像処理装置の構成を示し説明する。ここで、
第8実施例の構成部材で図27の構成部材と同等の部材
には同じ参照符号を付して、その説明を省略する。
FIG. 35 shows the structure of an image processing apparatus according to an eighth embodiment of the present invention. here,
The same reference numerals as in FIG. 27 denote the same parts in the eighth embodiment, and a description thereof will be omitted.

【0172】そして正規化修正輝度レベルnmyijは、
修正輝度ヒストグラム算出部155に入力されて、正規
化修正輝度レベルnmyijに対する度数の計数を行って
ヒストグラムを生成する。生成ヒストグラムは、正規化
修正輝度レベルの最大値と最小値の差を所定数Sで線形
に分割して、分割最少単位を度数計数のステップ幅とし
て生成する。
Then, the normalized corrected luminance level nmy ij is
The corrected luminance level is input to the corrected luminance histogram calculation unit 155, and the frequency is calculated for the normalized corrected luminance level nmy ij to generate a histogram. The generated histogram is generated by linearly dividing the difference between the maximum value and the minimum value of the normalized corrected luminance level by a predetermined number S, and generating the minimum unit of division as the step width of frequency counting.

【0173】従って、修正輝度ヒストグラム算出部15
5からの出力数は、ステップ数Sとして与えられるが、
このステップ数Sは必要最少限の数で画像種類とヒスト
グラム形状との相関性が適度に保たれるように、試行錯
誤的に予め求められる。ここで、修正輝度ヒストグラム
算出部155からの出力を、 ys s=0,1,…,S と定義しておく。
Therefore, the corrected luminance histogram calculator 15
The number of outputs from 5 is given as the number of steps S,
The number of steps S is a minimum number required and is determined in advance by trial and error so that the correlation between the image type and the histogram shape is appropriately maintained. Here, the output from the corrected luminance histogram calculation unit 155 is defined as y s s = 0, 1,..., S.

【0174】一方、バッファメモリ121とバッファメ
モリ122に一時蓄積された水平差分値 hij及び垂直
差分値 vijは、同時に読み出されて勾配ベクトル方位
検出部156に入力される。勾配ベクトル方位検出部1
56は、次の演算式 (1) hij>0のとき θ=tan-1(Δvij
/Δhij) (2) hij<0のとき θ=tan-1(Δvij
/Δhij)+π により求められる。但し、θは判定対象ブロックの任意
の画素(i,j)に対応した勾配ベクトル方位である。
On the other hand, the horizontal difference value h ij and the vertical difference value v ij temporarily stored in the buffer memories 121 and 122 are simultaneously read out and input to the gradient vector direction detection unit 156. Gradient vector direction detector 1
56 is the following equation (1) when h ij > 0 θ = tan −1 (Δv ij
/ Δh ij ) (2) When h ij <0 θ = tan −1 (Δv ij)
/ Δh ij ) + π. Here, θ is a gradient vector direction corresponding to an arbitrary pixel (i, j) of the determination target block.

【0175】前記勾配ベクトル方位θは、勾配ベクトル
方位ヒストグラム算出部157に入力されて、勾配ベク
トル方位θに対する度数の計数を行ってヒストグラムを
生成する。この生成ヒストグラムは、修正輝度ヒストグ
ラムを求めたときと同様に、所定のステップ角度で一様
に所定数Rで線形に分割して、分割最少単位に属する方
位角を度数計数の単位とする。
The gradient vector azimuth θ is input to the gradient vector azimuth histogram calculation unit 157, and counts the frequency with respect to the gradient vector azimuth θ to generate a histogram. This generated histogram is linearly divided by a predetermined number R uniformly at a predetermined step angle, and the azimuth belonging to the minimum unit of division is used as a unit of frequency counting, as in the case of obtaining the corrected luminance histogram.

【0176】従って、勾配ベクトル方位ヒストグラム算
出部157からの出力数は、Rで与えられるが、このス
テップ数Rは、必要最少限の数で画像種類とヒストグラ
ム形状との相関数が適度に保たれるように、試行錯誤的
に、予め求められる。ここで、勾配ベクトル方位ヒスト
グラム157からの出力を、 θr r=0,1,…,R と定義しておく。
Therefore, the number of outputs from the gradient vector azimuth histogram calculation unit 157 is given by R, and the number of steps R is the minimum necessary number and the correlation number between the image type and the histogram shape is kept moderate. Is determined beforehand by trial and error. Here, the output from the gradient vector direction histogram 157 is defined as θ r r = 0, 1,..., R.

【0177】なお、計数度数の総計が異なっても勾配ベ
クトル方位θのヒストグラム形状の特徴パターンに般化
性が失われないように、必要に応じてθr の最大度数で
正規化しておくことが望ましい。
[0177] Note that as generalization properties are not lost in the characteristic pattern of the histogram shape of the gradient vector orientation theta be different total counting time number, is that you normalized by the maximum frequency of theta r as required desirable.

【0178】以上により、修正輝度ヒストグラム算出部
155と勾配ベクトル方位ヒストグラム算出部157か
らのys 及びθr の合計[R+S]個の出力が、特徴パ
ターン判定部127に入力する。特徴パターン判定部1
27は、階層型ニューラルネットワークで構成される。
入力層は[R+S]個の入力をもち、中間層は試行錯誤
的に適切に決定された層数とニューロン素子をもち、出
力層は判定したい画像種類の出力をもつ。例えば、活字
体文字、手書き文字、写真、絵柄画像、背景画像の5つ
の画像種類を混在画像の中から判定して分離したいので
あれば、5出力をもつことになる。
As described above, a total of [R + S] outputs of ys and θ r from the corrected luminance histogram calculation unit 155 and the gradient vector direction histogram calculation unit 157 are input to the feature pattern determination unit 127. Feature pattern determination unit 1
Reference numeral 27 denotes a hierarchical neural network.
The input layer has [R + S] inputs, the intermediate layer has an appropriately determined number of layers and neuron elements by trial and error, and the output layer has an output of an image type to be determined. For example, if it is desired to determine five image types, that is, a print character, a handwritten character, a photograph, a picture image, and a background image, from the mixed image and to separate them, there are five outputs.

【0179】この特徴パターン判定部127のニューラ
ルネットワーク学習は、入力された修正輝度ヒストグラ
ムys と勾配ベクトル方位ヒストブラムθr のパターン
形状と対応関係にある探索ブロック選択部115で選択
された判定対象ブロックの画像の種類を教師データとし
て入力層に与えられる。
The neural network learning of the feature pattern determination unit 127 is performed by the search block selection unit 115 selected by the search block selection unit 115 having a correspondence relationship with the pattern shape of the input corrected luminance histogram y s and gradient vector azimuth histobram θ r. Are given to the input layer as teacher data.

【0180】そして学習時、教師データとしての判定対
象ブロックの画像種類は、人為的に認識して決定する。
この学習過程は、バックプロパゲーション手法により、
出力誤差が設定誤差以下になるまで、判定対象画像の種
類をさまざまに変えて繰り返し行われる。前記特徴パタ
ーン判定部127では、入力される修正輝度ヒストグラ
ムys と勾配ベクトル方位ヒストグラムθr の形状(特
徴パターン)と画像の種類に相関関係があることを利用
して、ニューラルネットワークにより認識処理を行って
いる。第6実施例と同様に敢えてニューラルネットワー
クを用いているのは、一般的なパターンマッチングのよ
うに多量の参照テンプレートと比較決定する膨大な計算
を回避することと、特徴パターンと画像種類との相関性
が多少劣化しても判定確率への影響が少ないことを利点
とするためである。学習が終了した特徴パターン判定部
127は、既に入力される修正輝度ヒストグラムys
勾配ベクトル方位ヒストグラムθr のヒストグラム形状
に対し、画像種類を判定し出力する画像種判定器になっ
ている。
At the time of learning, the image type of the block to be determined as teacher data is determined by artificial recognition.
This learning process is based on the back propagation method.
Until the output error becomes equal to or less than the set error, the determination is repeatedly performed while variously changing the type of the image to be determined. The feature pattern determination unit 127 performs recognition processing using a neural network by utilizing the correlation between the shapes (feature patterns) of the input corrected luminance histogram y s and the gradient vector direction histogram θ r and the type of image. Is going. As in the sixth embodiment, the purpose of using the neural network is to avoid a huge amount of calculation for comparing and determining with a large number of reference templates as in general pattern matching, and to correlate the feature pattern with the image type. This is because the advantage is that even if the performance is slightly deteriorated, the influence on the determination probability is small. Feature pattern determination unit 127 learning is completed already to the histogram shape of the modified luminance histogram y s and slope wavevector histogram theta r inputted, it becomes an image type determination unit for outputting determined image type.

【0181】この修正輝度ヒストグラムys と勾配ベク
トル方位ヒストグラムθr のヒストグラム形状と画像種
類との相関性を示すものとして、本実施例では次の特徴
を捉え、利用する。
In the present embodiment, the following features are captured and used as indicating the correlation between the histogram shape of the corrected luminance histogram y s and the gradient vector direction histogram θ r and the image type.

【0182】図36,図37は、この画像種類として活
字体文字、写真画像、絵柄画像を例にとってヒストグラ
ム形状の特徴的パターンとを対照したものである。図3
6(a),(b),(c)は、横軸に修正輝度、縦軸に
発生度数(発生確率)をとった修正輝度ヒストグラムを
示し、図37(a),(b),(c)は、15度おきの
方位角とそのステップ角で計数された度数を方位方向に
対して示している。前記活字体文字においては、輝度レ
ベルの分布の偏りが高低の2つになり双峰性を示し、勾
配ベクトル方位は90度おきの度数が顕著な方向依存性
が観測できる。写真画像において、輝度レベル分布は単
峰性であり、勾配ベクトル方位は方向依存性能を特に示
さない。また絵柄画像においては、輝度レベルの度数分
布は多峰性を有し、勾配ベクトル方位は先の活字体文字
に見られた90度おきの度数に加えて、45度おきの度
数も顕著になる方向依存性を示す。このように修正輝度
ヒストグラムと勾配ベクトル方位が画像種類によって特
徴的パターンの組み合わせを示す。
FIGS. 36 and 37 show a comparison between a character pattern of a histogram shape and a print character, a photograph image, and a picture image as examples of the image type. FIG.
6 (a), (b) and (c) show corrected luminance histograms in which the horizontal axis represents the corrected luminance and the vertical axis represents the occurrence frequency (occurrence probability), and FIG. 37 (a), (b) and (c). The parentheses indicate the azimuth angle at every 15 degrees and the frequency counted at the step angle with respect to the azimuth direction. In the typeface character, the distribution of the luminance level has two biases, ie, high and low, indicating bimodality, and the direction of the gradient vector direction is remarkably directional at every 90 degrees. In a photographic image, the luminance level distribution is unimodal, and the gradient vector orientation does not show any direction-dependent performance. Further, in the picture image, the frequency distribution of the luminance level has multi-modality, and the gradient vector direction has a remarkable frequency every 45 degrees in addition to the frequency every 90 degrees seen in the previous typeface character. Shows direction dependence. As described above, the corrected luminance histogram and the gradient vector direction indicate a combination of characteristic patterns depending on the image type.

【0183】そして、図38は、2つのパラメータが示
す文字種類に対する特徴をまとめたものである。手書き
文字は、輝度ヒストグラムは双峰性を示し、勾配ベクト
ルは方向依存性をもたないという特徴を有する。また背
景は、輝度レベルの分布は鋭い単峰性を示すが活字体文
字が示す単峰性との認識誤りを避けるために占有レベル
の範囲がある閾値以下のものは分布度数を零にすること
にすると、この場合修正輝度レベルの度数はすべて零と
なり、勾配ベクトル方位の方向依存性はないという特徴
になる。
FIG. 38 summarizes the characteristics for the character type indicated by the two parameters. The handwritten character has a feature that the luminance histogram shows bimodality and the gradient vector has no direction dependency. In the background, the distribution of the luminance level shows a sharp unimodal property, but the distribution frequency should be set to zero if the occupancy level is below a certain threshold to avoid recognition errors with the monomodal property shown by the typeface characters. In this case, in this case, the frequency of the corrected luminance level is all zero, and there is a feature that the direction of the gradient vector does not depend on the direction.

【0184】また背景の輝度レベル分布は、活字体文字
のそれに比べて取り得るレベル範囲が小さいため閾値判
断で輝度レベル分布における相違を明確化することがで
きる。
Also, the luminance level distribution of the background has a smaller level range than that of the printable characters, so that the difference in the luminance level distribution can be clarified by the threshold judgment.

【0185】次に、前記特徴パターン判定部127の出
力は、画像種決定部128に入力されて判定対象ブロッ
クの画像種最終判断が行われる。この特徴パターン判定
部127のニューラルネットワーク出力は、唯一の画像
種を出力しない場合も考えられるので、図33に示す処
理を用いて画像種を決定する。
Next, the output of the feature pattern determination section 127 is input to the image type determination section 128, and the image type final determination of the determination target block is performed. Since it is conceivable that the neural network output of the feature pattern determination unit 127 does not output only one image type, the image type is determined using the processing shown in FIG.

【0186】前記画像種決定部128から出力される最
終決定した画像種類、同種画像領域のアドレスデータお
よびサイズが、本実施例の混在画像域分離装置から出力
される。
The finally determined image type output from the image type determination unit 128, the address data and the size of the same type image area, are output from the mixed image area separation apparatus of this embodiment.

【0187】さらに図39には第9実施例として、図3
5に示す構成における修正輝度ヒストグラム算出部15
5、勾配ベクトル方位ヒストグラム算出部157以降が
異なる処理を行う構成例を示す。処理内容は、第8実施
例と同様である。ここで、図39に示す構成部材で図3
5と同等の部材には、同じ参照符号を付して、その説明
を省略する。
FIG. 39 shows a ninth embodiment as shown in FIG.
Modified luminance histogram calculator 15 in the configuration shown in FIG.
5 shows a configuration example in which the gradient vector direction histogram calculation unit 157 and subsequent units perform different processing. The processing content is the same as in the eighth embodiment. Here, the components shown in FIG.
The same reference numerals are given to members equivalent to 5 and their description is omitted.

【0188】本実施例で説明したように、修正輝度ヒス
トグラム算出部155および勾配ベクトル方位ヒストグ
ラム算出部157では、任意の同種画像領域内の任意の
判定対象ブロックに対する特徴ベクトルが抽出され、そ
のヒストグラムの度数が正規化されて出力する。探索ブ
ロック領域選択部115で選択される任意の同種画像領
域内の判定対象ブロックを選択順序にしたがって、番号
をつけ、識別すると正規化された特徴ベクトルは、 ベクトルθL =[θ1 ,θ2 ,θ3 ,…,θR ] ベクトルyL =[y1 ,y2 ,y3 ,…,yS ] 但
し、L =0,1,…,L と表すことができる。但し、選択される判定対象ブロッ
クの総数をLとする。Lは、任意の同種画像領域内を判
定対象ブロック単位で探索する際の探索回数のことであ
る。修正輝度ヒストグラム算出部155、勾配ベクトル
方位ヒストグラム算出部157からの出力(ベクトルθ
L ,ベクトルyL )は、それぞれに接続されたR+S個
の計数度数更新部R+Sに入力されて、L回処理が繰り
返される過程で、それぞれ成分の最大値になるよう更新
される。
As described in the present embodiment, the modified luminance histogram calculation unit 155 and the gradient vector direction histogram calculation unit 157 extract a feature vector for an arbitrary determination target block in an arbitrary homogeneous image region, and The frequency is normalized and output. The number of blocks to be determined in an arbitrary homogeneous image region selected by the search block region selection unit 115 is determined in accordance with the selection order, and the normalized feature vector is identified by the vector θ L = [θ 1 , θ 2 , Θ 3 ,..., Θ R ] vector y L = [y 1 , y 2 , y 3 ,..., Y S ] where L = 0, 1,. Here, L is the total number of selected blocks to be determined. L is the number of searches when searching in an arbitrary homogeneous image area in units of determination target blocks. Outputs from the corrected luminance histogram calculation unit 155 and the gradient vector direction histogram calculation unit 157 (vector θ
L and the vector y L ) are input to the R + S count frequency updating units R + S connected to the respective components, and are updated so as to become the maximum values of the components in the process of repeating the process L times.

【0189】すなわち、それらの特徴ベクトルの成分θ
R ,yS は、 ベクトルθ´=[max(θ1 ),max(θ2 ),max(θ3 ),…,
max(θR ) ]L ベクトルy´=[max(y1 ),max(y2 ),max(y3 ),…,
max(yS ) ]L を出力する。このように任意の同種画像領域内の複数判
定対象ブロックの最大値を示す特徴ベクトルの成分より
なる更新された特徴ベクトルのヒストグラムを求めるに
は、探索ブロック領域選択部115から計数度数更新部
159までの一連の処理過程を所定回(L回)繰り返さ
なければならない。
That is, the components θ of those feature vectors
R, y S is a vector θ'= [max (θ 1) , max (θ 2), max (θ 3), ...,
max (θ R )] L vector y ′ = [max (y 1 ), max (y 2 ), max (y 3 ),.
max (y S )] outputs L. As described above, in order to obtain a histogram of an updated feature vector including a component of a feature vector indicating the maximum value of a plurality of determination target blocks in an arbitrary homogeneous image region, the search block region selection unit 115 to the count frequency update unit 159 Must be repeated a predetermined number of times (L times).

【0190】そして、探索回数出力された特徴ベクトル
θ´及び特徴ベクトルy´は、第7実施例の特徴パター
ン判定部127と同様な階層型ニューラルネットワーク
で構成される特徴パターン判定部127に入力されて、
識別したい画像種類に応じた信号、例えば、I1 〜I5
が出力される。出力された画像種類の信号I1 〜I
5は、最尤度判断部160に入力されて最大値を示す画
像種類を最尤判断画像として出力する。本実施例では、
画像種類の決定に際して、保留は行わない。
The feature vector θ ′ and the feature vector y ′, for which the number of searches has been output, are input to a feature pattern determination unit 127 formed of a hierarchical neural network similar to the feature pattern determination unit 127 of the seventh embodiment. hand,
A signal corresponding to an image type to be identified, for example, I 1 to I 5
Is output. Output image type signals I 1 to I
5 outputs the image type that is input to the maximum likelihood determining unit 160 and indicates the maximum value as the maximum likelihood determination image. In this embodiment,
When determining the image type, no suspension is performed.

【0191】本実施例の混在画像像領域分離装置から最
終出力として、最尤度判断部160から出力される画像
種類、第8実施例と同様な同種画像領域のアドレスデー
タ及びサイズが出力される。本実施例の構成と画像種判
定手順を実現すれば、画像種類と対応づけられる修正輝
度ヒストグラム及び勾配ベクトル方位ヒストグラムのパ
ターンは、同種画像領域内の複数探索領域の中で、特徴
をより顕著に示すベクトル成分を選択的に抽出すること
ができ、画像種類ごとの特徴パターンの違いを明確化す
る。
As the final output from the mixed image image area separating apparatus of this embodiment, the image type output from the maximum likelihood determining section 160, and the address data and the size of the same kind of image area as in the eighth embodiment are output. . By realizing the configuration of the present embodiment and the image type determination procedure, the pattern of the corrected luminance histogram and the gradient vector azimuth histogram associated with the image type makes the feature more remarkable in a plurality of search regions within the same type image region. The vector components shown can be selectively extracted, and the difference in the feature pattern for each image type is clarified.

【0192】以上のように第2乃至第9実施例の画像処
理装置は、入力された文書画像に対してエッジ抽出・2
値化処理を施すことによって、画像領域の端部が欠ける
ことなく、また、黒白の反転した文書画像に対しても、
効率よく画像領域を分割することができる。
As described above, the image processing apparatuses of the second to ninth embodiments perform edge extraction /
By performing the binarization process, the edge of the image area is not chipped, and even for a document image in which black and white are inverted,
The image area can be efficiently divided.

【0193】また画像処理装置は、異なる画像の種類が
混在する混在画像を同種画像領域毎に的確に分割し、同
種画像領域内に判定対象領域を定めて、水平差分値,垂
直差分値、修正輝度レベルの3つのパラメータが示す分
布パターンの統計量を求め、その分布パターンをモデル
化・認識して画像種類を判定することにより、比較的軽
い負荷の処理で正解率の高い混在画像の像域分離が実現
できる。
Further, the image processing apparatus accurately divides a mixed image in which different image types are mixed for each image region of the same type, determines a determination target region in the image region of the same type, and determines a horizontal difference value, a vertical difference value, and a correction value. The image area of a mixed image having a high accuracy rate with relatively light load processing is obtained by calculating the statistics of the distribution pattern indicated by the three parameters of the luminance level, modeling and recognizing the distribution pattern, and determining the image type. Separation can be realized.

【0194】そして前記分布パターンの分類・認識は、
統計データに基づき違いを顕著にするために3つのパラ
メータがなす3次元直交空間に分布する形状をベクトル
量子化によりパターン化してモデル化し、そのモデル化
されたパターンの形状をニューラルネットワークで認識
することにより、精度のよい画像種判定を可能にしてい
る人為的判定の場合に類似した、統計量に基づく適切な
クラスタリングが実現できる。
The classification and recognition of the distribution pattern are as follows.
In order to make the difference remarkable based on the statistical data, the shape distributed in the three-dimensional orthogonal space formed by the three parameters is patterned and modeled by vector quantization, and the shape of the modeled pattern is recognized by a neural network. Accordingly, it is possible to realize appropriate clustering based on statistics, which is similar to the case of artificial determination that enables accurate image type determination.

【0195】また、像域分離された画像は、画像の種類
に応じて行うことによって効果を発揮するデータ処理、
例えばデータ圧縮、適応2値化、網点処理、意図的画像
再現効果を実現する種々自然画像処理(フィルタリング
など)を自動化することが可能となる。
Further, the image-separated image is subjected to data processing, which is effective when performed according to the type of the image.
For example, it is possible to automate data compression, adaptive binarization, halftone processing, and various natural image processing (such as filtering) for achieving an intentional image reproduction effect.

【0196】図40は、本発明による第10実施例とし
ての画像処理装置の構成を示すブロック図である。この
第10実施例の構成部材で、図27に示した構成部材と
同等の部材には同じ参照符号を付して、その説明を省略
する。探索ブロック領域選択部115において選択され
る判定対象ブロックの位置は、同種画像領域内で複数
回、同位置を重複しないよう選択される。選択された判
定対象ブロックの位置・サイズのデータは、画像フレー
ムメモリ112に入力されて、対応する画像メモリ部分
の画像データが画像フレームメモリ112から出力され
る。
FIG. 40 is a block diagram showing the structure of an image processing apparatus according to a tenth embodiment of the present invention. In the components of the tenth embodiment, the same components as those shown in FIG. 27 are denoted by the same reference numerals, and description thereof will be omitted. The position of the determination target block selected by the search block region selection unit 115 is selected a plurality of times in the same type image region so as not to overlap the same position. The data of the position and size of the selected determination target block is input to the image frame memory 112, and the image data of the corresponding image memory portion is output from the image frame memory 112.

【0197】この画像フレームメモリ112から出力さ
れた判定対象ブロックのフルカラー画像は、画像種判定
部170を構成する判定対象ブロック画像メモリ117
に入力されて一時蓄積される。判定対象ブロック画像メ
モリ117から出力されるフルカラー画像データは、モ
ノクロ画像変換部118に入力されて輝度レベルデータ
からなるモノクロ画像データに変換される。
The full-color image of the determination target block output from the image frame memory 112 is output to the determination target block image memory 117 constituting the image type determination unit 170.
And is temporarily stored. The full-color image data output from the determination target block image memory 117 is input to the monochrome image conversion unit 118 and is converted into monochrome image data including luminance level data.

【0198】本実施例では、画像種類の判定に際して
は、画像の輝度情報のみで判定し、色情報は使用しない
ことを前提とする。これは、1つには全体の処理過程に
おいて極力前置段階で取り扱うデータを削減して計算処
理の負荷を軽減してより実用性が高い処理を行うためで
ある。また、1つには入力画像全面或いは一部が仮にモ
ノクロ画像であってもなんら画像種類の判定には影響が
ない、汎用性の高い処理を実現するためである。
In this embodiment, it is assumed that the image type is determined based on only the luminance information of the image and that the color information is not used. This is partly because, in the overall processing, data handled in the preceding stage is reduced as much as possible to reduce the load of calculation processing and to perform processing with higher practicality. One reason is that even if the entire input image or a part of the input image is a monochrome image, it does not affect the determination of the image type at all, and realizes highly versatile processing.

【0199】次にモノクロ画像変換部118から出力さ
れる判定対象画像のモノクロ画像データ(例えば図4
1)は、まず局所輝度パターン検出器171に入力され
て、着目画素の輝度y0 とそれに隣接する所定数(N−
1)個の輝度y1 ,y2 ,y3,…,yN-1 からなる局
所輝度パターンY(y0 ,y1 ,y2 ,y3 ,…,y
N-1 )を検出する。例えば、3つの輝度成分(y0 ,y
1 ,y2 )からなる局所輝度パターンベクトルを3次元
空間にプロットして得られる画像種毎の発生頻度分布は
図42のようになる。各画像種毎に分布形状の特徴があ
ることが判る。
Next, the monochrome image data (for example, FIG.
1) is first input to the local luminance pattern detector 171, and the luminance y 0 of the pixel of interest and a predetermined number (N−
1) Local luminance pattern Y (y 0 , y 1 , y 2 , y 3 ,..., Y N ) composed of luminances y 1 , y 2 , y 3 ,.
N-1 ) is detected. For example, three luminance components (y 0 , y
FIG. 42 shows an occurrence frequency distribution for each image type obtained by plotting a local luminance pattern vector composed of ( 1 , y 2 ) in a three-dimensional space. It can be seen that each image type has a characteristic of the distribution shape.

【0200】局所輝度パターン検出器171から出力さ
れた局所輝度パターンY、即ち輝度の組み合わせY(y
0 ,y1 ,y2 ,y3 ,…,yN-1 )は、ベクトル量子
化器125に入力されて、これら輝度成分で定義される
N次元直交空間において特徴代表ベクトルf0 ,f1
2 ,…,fk にベクトル量子化する。
The local luminance pattern Y output from the local luminance pattern detector 171, that is, the luminance combination Y (y
0 , y 1 , y 2 , y 3 ,..., Y N-1 ) are input to the vector quantizer 125 and feature representative vectors f 0 , f 1 in an N-dimensional orthogonal space defined by these luminance components. ,
The vector is quantized to f 2 ,..., f k .

【0201】前記ベクトル量子化器125では、判定対
象ブロック内の任意の画素の全ての画素を着目画素の輝
度として、局所輝度パターンベクトルYが入力され処理
される。ベクトル量子化器125の出力となる量子化ベ
クトルは、予め複数の画像種類を有する複数の判定対象
ブロック画像から上記局所輝度パターンベクトルを算出
して、N次元直交空間上にプロットした発生分布より求
める。
In the vector quantizer 125, a local luminance pattern vector Y is input and processed with all the arbitrary pixels in the block to be determined as the luminance of the pixel of interest. The quantized vector output from the vector quantizer 125 is obtained from the occurrence distribution plotted on an N-dimensional orthogonal space by calculating the local luminance pattern vector from a plurality of determination target block images having a plurality of image types in advance. .

【0202】この際に用いるベクトル量子化方法は、種
々考えられるが、基本的に局所輝度パターンベクトルの
N次元空間での発生分布形状が、画像種によって違いが
識別されるようになされねばならない。さらに必要最小
限の代表ベクトルで画像種の特徴を表現できることが望
ましい。本実施例ではこの代表ベクトルの決定方法が、
ポイントとして重要となる。
Although various vector quantization methods can be used at this time, basically, the occurrence distribution shape of the local luminance pattern vector in the N-dimensional space must be determined so as to be distinguished depending on the image type. Further, it is desirable that the characteristics of the image type can be expressed by the minimum necessary representative vector. In this embodiment, the method of determining the representative vector is as follows.
It is important as a point.

【0203】この第10実施例でのベクトル量子化は、
まず図43(a)に示すような発生度数分布を求める。
すなわち、識別したい各画像種の画像に対し、判定対象
ブロックを選択して局所輝度パターンベクトルYi に対
する発生度数分布を求める。この処理を異なる種類の画
像に対しほぼ同数のブロック数で実施する。従って選択
された全てのブロック数分の度数分布が得られることに
なる。但し、選択された1つのブロックに対して、理想
的には全てのベクトルYi 、つまり各輝度成分の量子化
がQステップならば、i=0,1,2,…,QN −1に
ついての度数分布を求めるが、ベクトルYi の成分数N
が大きくなると莫大なベクトル数になるので、量子化幅
を大きく採って各輝度成分の量子化数を必要に応じて縮
小しても構わない。このベクトル総数をLとする。
The vector quantization in the tenth embodiment is as follows.
First, an occurrence frequency distribution as shown in FIG.
That is, for each image type of the image to be identified, by selecting the determination target block obtains the occurrence frequency distribution to the local luminance pattern vector Y i. This processing is performed on different types of images with substantially the same number of blocks. Therefore, frequency distributions for all the selected blocks can be obtained. However, for one selected block, ideally all vectors Y i , that is, if quantization of each luminance component is Q steps, i = 0, 1, 2,..., Q N −1 Is obtained, the number of components N of the vector Y i is obtained.
Becomes larger, the number of vectors becomes enormous. Therefore, the quantization width may be increased and the number of quantization of each luminance component may be reduced as necessary. Let L be the total number of vectors.

【0204】任意の局所輝度パターンベクトルYi の判
定対象ブロック単位での度数自体ximを全てのブロック
に対して計数して総ブロック数Mで除算する。これによ
り図43(b)に示すようなブロック単位のベクトルY
i の度数値の度数分布Pi (xim)が得られる。このベ
クトルYi の度数値の分散σi を全てのベクトルYi
対して計算する。即ち、
The frequency itself x im of an arbitrary local luminance pattern vector Y i for each block to be determined is counted for all blocks and divided by the total block number M. As a result, a vector Y in block units as shown in FIG.
i degrees numerical frequency distribution P i (x im) is obtained. The variance sigma i numerical degree of the vector Y i calculated for all vectors Y i. That is,

【0205】[0205]

【数4】 である。(Equation 4) It is.

【0206】次に分散σi が大きい順にベクトルYi
並べ変える。それらの内分散σi が所定値以下のもの
は、代表ベクトルとしては対象外として除去し、残りの
ベクトルYi ′をベクトル量子化のための代表ベクトル
とする。分散の所定値というのは、所定値以上のベクト
ルを代表ベクトルとした場合に、上記手法を使って画像
種を識別して満足できる識別率が達成できる値である。
Next, the vectors Y i are rearranged in descending order of the variance σ i . Those whose internal variance σ i is equal to or smaller than a predetermined value are excluded as representative vectors and are removed, and the remaining vectors Y i ′ are set as representative vectors for vector quantization. The predetermined value of the variance is a value that can achieve a satisfactory identification rate by identifying an image type using the above-described method when a vector having a predetermined value or more is used as a representative vector.

【0207】図40に示したベクトル量子化器125で
は、判定対象ブロックから検出された局所輝度パターン
ベクトルYi が、これら選択された代表ベクトルYi
の何れかに量子化される。即ち、局所輝度パターンベク
トルYi は、N次元直交空間において距離が最も近い代
表ベクトルを量子化ベクトルとする。距離はユークリッ
ド距離(ベクトル成分差の2乗和の平方根)または市街
地距離(ベクトル成分差の絶対値和)を用いればよい。
In the vector quantizer 125 shown in FIG. 40, the local luminance pattern vector Y i detected from the determination target block is converted into the selected representative vector Y i ′.
. That is, as the local luminance pattern vector Y i , the representative vector having the shortest distance in the N-dimensional orthogonal space is set as the quantization vector. The distance may be the Euclidean distance (the square root of the sum of squares of the vector component difference) or the city area distance (the sum of absolute values of the vector component difference).

【0208】このようにして代表ベクトルを求めるの
は、次の目的による。
The purpose of obtaining the representative vector in this manner is as follows.

【0209】本実施例では各画像種の特徴を、前記ベク
トルYi の発生度数分布の形状によって識別しようとし
ている。画像値によってその部分形状が際だって異なる
ベクトルは、上記分散σi が大きくなり、反対に部分形
状がほぼ類似している場合は、その形状を成しているベ
クトルYi の分散は‘0’に近い値を示す。画像値を識
別すること、つまり発生分布形状を区別するのは、互い
に分布形状の異なる部分を優先して識別することが有効
である。従って、相対的に大きい分散値を示すベクトル
i で分布形状を近似することが、画像種による分布形
状を効果的に識別する上で役立つからである。
[0209] The features of each image type in this embodiment, trying to identify the shape of the occurrence frequency distribution of the vector Y i. For a vector whose partial shape is significantly different depending on the image value, the variance σ i becomes large. On the contrary, when the partial shapes are almost similar, the variance of the vector Y i forming the shape is “0”. Shows a value close to. It is effective to identify image values, that is, to distinguish occurrence distribution shapes, by preferentially identifying portions having different distribution shapes. Therefore, it is because help the distribution shape by the image species on effectively identifies that approximates the distribution shape vector Y i indicating the relatively large variance.

【0210】図40に示すベクトル量子化器125から
出力された量子化ベクトルは、量子化ベクトル計数部1
26に入力されて、その累積度数が計数されてヒストグ
ラムを算出する。量子化ベクトルgk のヒストグラム
は、特徴パターン判定部127に入力されて、その形状
を認識して判定画像種類を出力する。特徴パターン判定
部127は、フィードフォワードの階層型ニューラルネ
ットワークで構成される。入力層は、量子化ベクトルの
数のK個の入力をもつ。中間層は試行錯誤的に適切に決
定された層数とニューロン素子をもち、出力層は判定し
たい画像種類の数の出力をもつ。例えば、活字体文字、
手書き文字、写真、絵柄画像、背景画像の5つの画像種
類を混在画像の中から判定して分離したいのであれば、
5出力をもつことになる。
The quantization vector output from the vector quantizer 125 shown in FIG.
26, the cumulative frequency is counted, and a histogram is calculated. The histogram of the quantized vector g k is input to the feature pattern determination unit 127, which recognizes its shape and outputs the determined image type. The feature pattern determination unit 127 is configured by a feedforward hierarchical neural network. The input layer has K inputs of the number of quantization vectors. The intermediate layer has the number of layers and neuron elements appropriately determined by trial and error, and the output layer has outputs of the number of image types to be determined. For example, typescript,
If you want to determine the five image types of handwritten characters, photos, design images, and background images from the mixed images and separate them,
It will have 5 outputs.

【0211】この特徴パターン判定部127のニューラ
ルネットワークの学習は、入力された量子化ベクトルの
ヒストグラムのパターン形状と対応関係にある探索ブロ
ック選択部115で選択された判定対象ブロックの画像
の種類を教師データとして出力層に与えられる。学習
時、教師データとしての判定対象ブロックの画像種類に
は、人為的に認識して決定する。この学習過程は、バッ
クプロパゲーション手法により、出力誤差が設定誤差以
下になるまで、判定対象画像の種類をさまざまに変えて
繰り返し行われる。
The learning of the neural network by the feature pattern determination unit 127 is performed by instructing the type of the image of the determination target block selected by the search block selection unit 115 having a correspondence with the pattern shape of the histogram of the input quantization vector. The data is provided to the output layer. At the time of learning, the image type of the determination target block as teacher data is determined by artificial recognition. This learning process is repeatedly performed by the back propagation method while the type of the determination target image is variously changed until the output error becomes equal to or less than the set error.

【0212】そして特徴パターン判定部127では、入
力される量子化ベクトルのヒストグラムの形状(特徴パ
ターン)と画像の種類に相関関係があることを利用し
て、ニューラルネットワークにより認識処理を行ってい
る。敢えてニューラルネットワークを用いているのは、
一般的なパターンマッチングのように多量の参照テンプ
レートと比較決定する膨大な計算を回避することと、特
徴パターンと画像種類との相関性が多少劣化しても判定
確率への影響が少ないことを利点とするためである。学
習が終了した特徴パターン判定部127は、既に入力さ
れる量子化ベクトルのヒストグラム形状に対し、画像種
類を判定し出力する画像種判定器になっている。
The feature pattern judging section 127 performs recognition processing using a neural network, utilizing the fact that the shape (feature pattern) of the histogram of the input quantization vector and the type of image are correlated. The reason for using a neural network is
The advantage is that it avoids a huge amount of calculation to compare and determine with a large number of reference templates as in general pattern matching, and that even if the correlation between the feature pattern and the image type is slightly deteriorated, there is little effect on the judgment probability. This is because The feature pattern determination unit 127 that has finished learning is an image type determination unit that determines an image type based on the histogram shape of the quantization vector already input and outputs the image type.

【0213】前記特徴パターン判定部127の出力は、
画像種決定部128に入力されて判定対象ブロックの画
像種最終判断が行われる。特徴パターン判定部127の
ニューラルネットワーク出力は、唯一の画像種を出力し
ない場合も考えられる。
The output of the characteristic pattern determination section 127 is
The input is input to the image type determination unit 128, and the image type final determination of the determination target block is performed. The neural network output of the feature pattern determination unit 127 may not output only one image type.

【0214】従って、その判定結果に対する評価基準
(ルール)を設けて、対応する同種画像領域の画像種類
の最終決定が画像種決定部128から出力される。
Therefore, an evaluation standard (rule) for the determination result is provided, and the final determination of the image type of the corresponding same-type image area is output from the image type determination unit 128.

【0215】前記画像種決定部128から出力される最
終決定した画像種類、上記同種画像領域のアドレスデー
タ及びサイズが、本実施例の混在画像像域分離装置から
出力される。
The finally determined image type output from the image type determination section 128, the address data and the size of the same type image area are output from the mixed image image area separation apparatus of this embodiment.

【0216】次に本発明による第11実施例について説
明する。この第11実施例以降の実施例の画像処理装置
の構成は、図40に示した第10実施例と同様である
が、ベクトル量子化部125内部で行われるベクトル量
子化の量子化されるベクトルの算出方法が異なるもので
あり、構成についての説明は省略する。
Next, an eleventh embodiment according to the present invention will be described. The configuration of the image processing apparatus according to the eleventh and subsequent embodiments is the same as that of the tenth embodiment shown in FIG. 40 except that the vector quantized by the vector quantization performed inside the vector quantization unit 125 is performed. Is different, and the description of the configuration is omitted.

【0217】この第11実施例において用いられるベク
トル量子化器の代表ベクトルは、次のようにして求めら
れる。
The representative vector of the vector quantizer used in the eleventh embodiment is obtained as follows.

【0218】まず画像種ごとに、十分な判定対象ブロッ
ク数で着目画素の輝度y0 とそれに隣接する所定数(N
−1)個の輝度y1 ,y2 ,y3 ,…,yN-1 からなる
局所輝度パターンとしてのベクトルYi (y0 ,y1
2 ,y3 ,…,yN-1 )を繰り返し検出する。1つの
ブロックで検出されるベクトルYi は、各輝度成分yj
(j=0,1,2,…,N−1)の量子化がQステップ
ならば、i=0,1,2,…,QN −1通り存在する
が、ベクトルYi の成分数Nが大きくなると莫大なベク
トル数になるので、量子化幅を大きく採って各輝度成分
の量子化数を必要に応じて縮小しても構わない。
First, for each image type, the luminance y 0 of the target pixel and a predetermined number (N
-1) luminance y 1, y 2, y 3 , ..., vector Y i (y 0, y 1 as a topical luminance pattern consisting of y N-1,
y 2, y 3, ..., repeatedly detect y N-1). The vector Y i detected in one block is the luminance component y j
(J = 0,1,2, ..., N -1) if the quantization Q step, i = 0,1,2, ..., are present ways Q N -1, the number components of the vector Y i N Becomes larger, the number of vectors becomes enormous. Therefore, the quantization width may be increased and the number of quantization of each luminance component may be reduced as necessary.

【0219】1つの判定対象ブロックにて検出される任
意のベクトルYi の画像種ごとのブロック単位発生度数
の値をFreq(Yij)と表し、複数ブロックでのFr
eq(Yij)の生起度数分布算出する。但し、jは識別
したい画像種の数だけ連番で与えられる。例えば、活字
体文字=‘0’、手書き文字=‘1’、写真=‘2’、
絵柄画像=‘3’のように番号が付される。
The value of the block unit occurrence frequency for each image type of an arbitrary vector Y i detected in one determination target block is represented by Freq (Y ij ), and Fr in a plurality of blocks
The occurrence frequency distribution of eq (Y ij ) is calculated. Here, j is given by a serial number by the number of image types to be identified. For example, typeface characters = '0', handwritten characters = '1', photos = '2',
Numbers are assigned such as picture image = “3”.

【0220】次に、図44に示すように任意のYijに対
して、各画像種単位の平均生起度数Avr(Freq
(Yij))を求め、相互の平均度数の絶対値が算出され
る。例えば4通りの画像種があれば、6通りの値が求め
られることになる。そのうちの最小値[d
min (Yi )]を求め、同様にして全てのベクトルに対
しこの値を算出する。
Next, as shown in FIG. 44, for any Y ij , the average occurrence frequency Avr (Freq
(Y ij )), and the absolute value of the mutual average frequency is calculated. For example, if there are four types of images, six types of values are obtained. The minimum value [d
min (Y i )], and this value is similarly calculated for all the vectors.

【0221】各ベクトルの最小値[dmin (Yi )]が
大きいものから順にベクトルYi を並べ変え、その値が
所定値以上を示すベクトルYi を前記ベクトル量子化に
おける代表ベクトルとする。
The vectors Y i are rearranged in descending order of the minimum value [d min (Y i )] of each vector, and a vector Y i having a value equal to or larger than a predetermined value is set as a representative vector in the vector quantization.

【0222】このようにして算出された代表ベクトルが
図40に示したベクトル量子化器125で量子化される
ベクトルとして使用される。量子化方法は、第10実施
例と同様に、N次元直交空間において距離が最も近い代
表ベクトルを量子化ベクトルとする。また距離はユーク
リッド距離(ベクトル成分差の2乗和の平方根)または
市街地距離(ベクトル成分差の絶対値和)を用いればよ
い。
The representative vector calculated in this manner is used as a vector quantized by the vector quantizer 125 shown in FIG. In the quantization method, as in the tenth embodiment, the representative vector having the closest distance in the N-dimensional orthogonal space is used as the quantization vector. The distance may be the Euclidean distance (the square root of the sum of the squares of the vector component differences) or the city distance (the sum of the absolute values of the vector component differences).

【0223】任意のベクトルYijに対する各画像種単位
の平均生起度数Avr(Yij)は、画像値ごとにブロッ
ク単位でのそのベクトルの発生度数の平均を与える。そ
のため、ある画像種があるベクトルYi を取る確率を反
映し、それの最もらしい代表値を示している。画像値に
よってあるベクトルYi を取る確率の違いが小さい場合
は、そのベクトルYi によっては画像種を識別し難いこ
とになる。逆に画像種によってあるベクトルYi を取る
確率の違いの最小値が大きい場合は、そのベクトルYi
によっては画像種を識別し易いことになり、識別し易い
ベクトルを優先して観測し、識別すれば効果的な識別が
可能となる。
The average occurrence frequency Avr (Y ij ) for each image type with respect to an arbitrary vector Y ij gives the average of the occurrence frequency of the vector in block units for each image value. Therefore, it reflects the probability of taking the vector Y i that is the image type indicates the most likely representative value of it. For the probability of taking a vector Y i in the image value differences is small, so that hardly identify images species by the vector Y i. Conversely, if the minimum value of the difference in the probability of taking a certain vector Y i depends on the image type, the vector Y i
In some cases, the image type can be easily identified, and the vector that can be easily identified is observed with priority, and if it is identified, effective identification becomes possible.

【0224】次に本発明による第12実施例としての画
像処理装置について説明する。
Next, an image processing apparatus according to a twelfth embodiment of the present invention will be described.

【0225】この第12実施例において用いられるベク
トル量子化器の代表ベクトルは、次のようにして求めら
れる。まず画像種ごとに、十分な判定対象ブロック数で
着目画素の輝度y0 とそれに隣接する所定数(N−1)
個の輝度y1 ,y2 ,y3 ,…,yN-1 からなる局所輝
度パターンとしてのベクトルYi (y0 ,y1 ,y2
3 ,…,yN-1 )を繰り返し検出する。1つのブロッ
クで検出されるベクトルYi のは、各輝度成分yj (j
=0,1,2,…,N−1)の量子化がQステップなら
ば、i=0,1,2,…,QN −1通り存在するが、ベ
クトルYi の成分数Nが大きくなると莫大なベクトル数
になるので、量子化幅を大きく採って各輝度成分の量子
化数を必要に応じて縮小しても構わない。
A representative vector of the vector quantizer used in the twelfth embodiment is obtained as follows. First, for each image type, the luminance y 0 of the pixel of interest and a predetermined number (N−1) adjacent to the luminance y 0 of the target pixel with a sufficient number of determination target blocks
Pieces of luminance y 1, y 2, y 3 , ..., vector Y i (y 0 as a topical luminance pattern consisting of y N-1, y 1, y 2,
y 3 ,..., y N−1 ) are repeatedly detected. The vector Y i detected in one block is calculated for each luminance component y j (j
= 0, 1, 2,..., N−1), if there are Q steps, there are i = 0, 1, 2,..., Q N −1, but the number of components N of the vector Y i is large. Since the number of vectors becomes enormous, a large quantization width may be used to reduce the number of quantization of each luminance component as necessary.

【0226】そして、1つの判定対象ブロックにて検出
される任意のベクトルYi の画像種ごとのブロック単位
発生度数の値をFreq(Yij)と表し、多数ブロック
でのFreq(Yij)の生起確率分布P(Freq(Y
ij))を算出する。但し、jは識別したい画像種の数だ
け連番で与えられる。例えば、活字体文字=‘0’、手
書き文字=‘1’、写真=‘2’、絵柄画像=‘3’の
ように番号が付される。またFreq(Yij)は画像種
毎にサンプルブロック総数が除算され、正規化される。
The value of the block unit occurrence frequency for each image type of an arbitrary vector Y i detected in one determination target block is represented as Freq (Y ij ), and Freq (Y ij ) The occurrence probability distribution P (Freq (Y
ij )). Here, j is given by a serial number by the number of image types to be identified. For example, numbers are given such as typeface character = '0', handwritten character = '1', photograph = '2', and picture image = '3'. Freq (Y ij ) is normalized by dividing the total number of sample blocks for each image type.

【0227】次に図45に示すように任意のYi におい
て、任意の2つの画像種j,j′の組み合わせを全て抽
出し、それらの生起確率分布P(Freq(Yij))並
びにP(Freq(Yij′))重なりあう面積、換言す
れば同時発生確率を組み合わせ数分算出する。
Next, as shown in FIG. 45, at any Y i , all combinations of arbitrary two image types j and j ′ are extracted, and their occurrence probability distributions P (Freq (Y ij )) and P ( Freq (Y ij ')) The overlapping areas, in other words, the simultaneous occurrence probabilities are calculated for the number of combinations.

【0228】この同時発生確率の最大値[S
max (Yi )]を求めて、各ベクトルの最小値[Smax
(Yi )]が小さいものから順にベクトルYi を並べ変
え、その値が所定値以下を示すベクトルYi を前述した
ベクトル量子化における代表ベクトルとする。
The maximum value of the simultaneous occurrence probability [S
max (Y i )] and obtain the minimum value [S max of each vector.
(Y i)] Sorts vector Y i in the order of small, its value as a representative vector in the vector quantization described above the vector Y i indicating a predetermined value or less.

【0229】このようにして算出された代表ベクトルが
図40に示したベクトル量子化器125で量子化される
ベクトルとして使用される。量子化方法は、第10実施
例と同様にN次元直交空間において距離が最も近い代表
ベクトルを量子化ベクトルとする。距離はユークリッド
距離(ベクトル成分差の2乗和の平方根)または市街地
距離(ベクトル成分差の絶対値和)を用いればよい。
The representative vector thus calculated is used as a vector to be quantized by the vector quantizer 125 shown in FIG. In the quantization method, the representative vector having the shortest distance in the N-dimensional orthogonal space is used as the quantization vector as in the tenth embodiment. The distance may be the Euclidean distance (the square root of the sum of squares of the vector component difference) or the city area distance (the sum of absolute values of the vector component difference).

【0230】任意のベクトルYi に対する生起確率分布
P(Freq(Yij))の各画像種間の同時発生確率
は、異なる2つの画像種があるベクトルYi をどの程度
の確率で識別できるかを表す。同時発生確率が大きい場
合は、誤る確率が増大する。従って、あるベクトルYi
を取る確率がどの2つの画像種間でも類似する度合いが
小さければ、そのベクトルYi によって画像種の識別が
効果的であることが言える。従って、識別に効果的なベ
クトルを優先して観測すれば、能率のよい画像種識別が
可能となる。
[0230] or simultaneous occurrence probability among the image type of the probability distribution for any vector Y i P (Freq (Y ij )) can be identified at what probability the vector Y i there are two images species different Represents If the co-occurrence probability is high, the error probability increases. Therefore, a certain vector Y i
If the degree of similarity between the two image types is small, the discrimination of the image type by the vector Y i is effective. Therefore, if the vector effective for identification is observed with priority, efficient image type identification becomes possible.

【0231】次に本発明による第13実施例の画像処理
装置について説明する。
Next, an image processing apparatus according to a thirteenth embodiment of the present invention will be described.

【0232】この第13実施例において用いられるベク
トル量子化器の代表ベクトルは、次のようにして求めら
れる。まず画像種ごとに、十分な判定対象ブロック数で
着目画素の輝度y0 とそれに隣接する所定数(N−1)
個の輝度y1 ,y2 ,y3 ,…,yN-1 からなる局所輝
度パターンとしてのベクトルYi (y0 ,y1 ,y2
3 ,…,yN-1 )を繰り返し検出する。1つのブロッ
クで検出されるベクトルYi のは、各輝度成分yj (j
=0,1,2,…,N−1)の量子化がQステップなら
ば、i=0,1,2,…,QN −1通り存在するが、ベ
クトルYi の成分数Nが大きくなると莫大なベクトル数
になるので、量子化幅を大きく採って各輝度成分の量子
化数を必要に応じて縮小しても構わない。
The representative vector of the vector quantizer used in the thirteenth embodiment is obtained as follows. First, for each image type, the luminance y 0 of the pixel of interest and a predetermined number (N−1) adjacent to the luminance y 0 of the target pixel with a sufficient number of determination target blocks
Pieces of luminance y 1, y 2, y 3 , ..., vector Y i (y 0 as a topical luminance pattern consisting of y N-1, y 1, y 2,
y 3 ,..., y N−1 ) are repeatedly detected. The vector Y i detected in one block is calculated for each luminance component y j (j
= 0, 1, 2,..., N−1), if there are Q steps, there are i = 0, 1, 2,..., Q N −1, but the number of components N of the vector Y i is large. Since the number of vectors becomes enormous, a large quantization width may be used to reduce the number of quantization of each luminance component as necessary.

【0233】まず、前記局所輝度パターンをベクトルと
して表現できるN次元空間において、画像種別にそのベ
クトルを十分なサンプル数でプロットする。結果画像種
ごとのベクトルの発生確率分布を得る。これら分布を図
46に示すように、それぞれLBGアルゴリズムを用い
て、所定数のベクトルにベクトル量子化する。LBGア
ルゴリズムは、例えば[“An Algorithm for Vector Qu
antizer Design" YOSEPH LINDE etc. IEEE TRANSACTION
ON COMUNICATIONS ,VOL.COM-28,NO.1 JANUARY 1980
]に詳細に記載されている。要点を言えば、局所領域
内に存在する全ての特徴ベクトルとその局所領域の代表
ベクトルとのユークリッド距離が他の局所領域の代表ベ
クトルとのユークリッド距離に対して最短になるように
代表ベクトルが決定される。
First, in an N-dimensional space where the local luminance pattern can be expressed as a vector, the vector is plotted with a sufficient number of samples for each image type. As a result, an occurrence probability distribution of a vector for each image type is obtained. As shown in FIG. 46, these distributions are vector-quantized into a predetermined number of vectors using the LBG algorithm. The LBG algorithm is, for example, [“An Algorithm for Vector Qu
antizer Design "YOSEPH LINDE etc. IEEE TRANSACTION
ON COMUNICATIONS, VOL.COM-28, NO.1 JANUARY 1980
] Is described in detail. In short, the representative vector is determined so that the Euclidean distance between all the feature vectors existing in the local region and the representative vector of the local region is the shortest with respect to the Euclidean distance between the representative vectors of other local regions. Is done.

【0234】そして算出された各画像種の量子化ベクト
ルを合成して1つの量子化ベクトルの集合とし、個々の
ベクトル間の距離が大きいベクトルから代表ベクトル優
先候補とする。優先度が高い代表ベクトルから所定数を
選択して、最終的な代表ベクトルとする。代表ベクトル
の距離が互いに小さい、即ち分布が密なベクトル存在空
間は、各画像種の分布形状が類似していると判断でき
る。従って密でない空間のベクトルを優先して選択する
ことで、これらベクトルの発生分布は互いの画像種の違
いを顕著に表すことになり、能率的な画像種識別を実現
する。
Then, the calculated quantized vectors of the respective image types are combined to form one set of quantized vectors, and a vector having a large distance between individual vectors is set as a representative vector priority candidate. A predetermined number is selected from the representative vectors having the highest priority, and is set as the final representative vector. In a vector existence space in which the distances between the representative vectors are small, that is, the vector existence space has a dense distribution, it can be determined that the distribution shapes of the image types are similar. Therefore, by preferentially selecting vectors in a non-dense space, the distribution of occurrence of these vectors significantly represents the difference between the image types, and realizes efficient image type identification.

【0235】次に本発明による第14実施例の画像処理
装置について説明する。
Next, an image processing apparatus according to a fourteenth embodiment of the present invention will be described.

【0236】この第14実施例において用いられるベク
トル量子化器の代表ベクトルは、次のようにして求めら
れる。まず、画像種ごとに、十分で且つ同数の判定対象
ブロック数で着目画素の輝度y0 とそれに隣接する所定
数(N−1)個の輝度y1 ,y2 ,y3 ,…,yN-1
らなる局所輝度パターンとしてのベクトルYi (y0
1 ,y2 ,y3 ,…,yN-1 )を繰り返し検出する。
1つのブロックで検出されるベクトルYi は、各輝度成
分yj (j=0,1,2,…,N−1)の量子化がQス
テップならば、i=0,1,2,…,QN −1通り存在
するが、ベクトルYi の成分数Nが大きくなると莫大な
ベクトル数になるので、量子化幅を大きく採って各輝度
成分の量子化数を必要に応じて縮小しても構わない。
The representative vector of the vector quantizer used in the fourteenth embodiment is obtained as follows. First, for each image type, a predetermined number of adjacent thereto and the luminance y 0 of the target pixel in sufficient and and the same number of determination target blocks (N-1) pieces of luminance y 1, y 2, y 3 , ..., y N vector Y i (y 0 as a topical luminance pattern consisting -1,
y 1, y 2, y 3 , ..., repeatedly detect y N-1).
If the quantization of each luminance component y j (j = 0, 1, 2,..., N−1) is Q steps, the vector Y i detected in one block is i = 0, 1, 2,. , Q N −1, but if the number N of components of the vector Y i increases, the number of vectors becomes enormous. Therefore, a large quantization width is used to reduce the number of quantization of each luminance component as necessary. No problem.

【0237】次に検出されたベクトルYi から取り得る
全てのベクトルに対し、その頻度を計数する。計数値が
最大のベクトルから随時所定数分選択し、ベクトル量子
化時の代表ベクトルとする。どの画像種に対しても発生
確率が小さいものは、その頻度が画像種によって差異が
表れないので、識別に用いる必要性がない。従って、こ
のような識別に寄与しないベクトルを除去することで、
図40の特徴パターン判定部127の入力数を削減で
き、能率の良い識別部構成が実現できる。
Next, the frequencies of all possible vectors from the detected vector Y i are counted. A predetermined number is selected as needed from the vector having the largest count value, and is used as a representative vector at the time of vector quantization. If the occurrence probability is low for any of the image types, the frequency does not differ depending on the image type, so that there is no need to use it for identification. Therefore, by removing such vectors that do not contribute to identification,
The number of inputs to the characteristic pattern determination unit 127 in FIG. 40 can be reduced, and an efficient identification unit configuration can be realized.

【0238】次に本発明による第15実施例の画像処理
装置について説明する。第15実施例において用いられ
るベクトル量子化器の代表ベクトルは、次のようにして
求められる。まず画像種ごとに、十分な判定対象ブロッ
ク数で着目画素の輝度y0 とそれに隣接する所定数(N
−1)個の輝度y1 ,y2 ,y3 ,…,yN-1 からなる
局所輝度パターンとしてのベクトルYi (y0 ,y1
2 ,y3 ,…,yN-1 )を繰り返し検出する。1つの
ブロックで検出されるベクトルYi は、各輝度成分yj
(j=0,1,2,…,N−1)の量子化がQステップ
ならば、i=0,1,2,…,QN −1通り存在する
が、ベクトルYi の成分数Nが大きくなると莫大なベク
トル数になるので、量子化幅を大きく採って各輝度成分
の量子化数を必要に応じて縮小しても構わない。
Next, an image processing apparatus according to a fifteenth embodiment of the present invention will be described. The representative vector of the vector quantizer used in the fifteenth embodiment is obtained as follows. First, for each image type, the luminance y 0 of the pixel of interest and a predetermined number (N
-1) luminance y 1, y 2, y 3 , ..., vector Y i (y 0, y 1 as a topical luminance pattern consisting of y N-1,
y 2, y 3, ..., repeatedly detect y N-1). The vector Y i detected in one block is the luminance component y j
(J = 0,1,2, ..., N -1) if the quantization Q step, i = 0,1,2, ..., are present ways Q N -1, the number components of the vector Y i N Becomes larger, the number of vectors becomes enormous. Therefore, the quantization width may be increased and the number of quantization of each luminance component may be reduced as necessary.

【0239】図47に示すように、検出されたベクトル
i の画像種それぞれのヒストグラムを算出し、度数の
最大値で除算して正規化する。得られた各ヒストグラム
はN次元で全微分され、絶対値がとられる。全微分され
たN次元ヒストグラムを所定値閾値で2値化する。
As shown in FIG. 47, the histogram of each image type of the detected vector Y i is calculated, and is divided by the maximum value of the frequency to normalize. Each of the obtained histograms is totally differentiated in N dimensions, and an absolute value is obtained. The fully differentiated N-dimensional histogram is binarized with a predetermined threshold value.

【0240】そして2値化されたそれぞれの画像種のN
次元2値パターンは、全ての画像種で論理積がとられ
る。論理積後の2値N次元パターン分布において、LB
Gアルゴリズム(第13実施例にて説明した)を適用し
て所定数の代表ベクトルを抽出する。ヒストグラムの形
状を識別する上で、形状変化が大きい部分は、多くのベ
クトルで近似し、形状変化が小さい部分は少ないベクト
ルで近似する方が形状を効果的に近似できる。微分パタ
ーン形状は形状変化の度合いを反映する。従って上記処
理方法を使えば、各画像種に共通して分布形状の変化を
容易に抽出でき、画像種によるN次元ヒストグラムのよ
り効果的な形状近似が実現できる。
The N of each binarized image type is
The dimensional binary pattern is ANDed for all image types. In the binary N-dimensional pattern distribution after the logical product, LB
A predetermined number of representative vectors are extracted by applying the G algorithm (described in the thirteenth embodiment). In identifying the shape of the histogram, it is possible to approximate the shape more effectively by approximating the portion where the shape change is large with many vectors and the portion where the shape change is small with a small number of vectors. The shape of the differential pattern reflects the degree of shape change. Therefore, if the above processing method is used, a change in the distribution shape can be easily extracted in common for each image type, and more effective shape approximation of the N-dimensional histogram according to the image type can be realized.

【0241】次に図48には、本発明による第16実施
例としての画像処理装置の構成を示し説明する。
Next, FIG. 48 shows the structure of an image processing apparatus according to a sixteenth embodiment of the present invention.

【0242】この第16実施例においても、画像種判定
部170の局所輝度パターン検出部172までは、図4
0に示す第10実施例と構成は同一である。本実施例の
特徴となる局所輝度パターン検出部172以降から画像
種決定出力までの構成及び動作について説明する。
Also in the sixteenth embodiment, up to the local luminance pattern detecting section 172 of the image type determining section 170,
The configuration is the same as that of the tenth embodiment shown in FIG. The configuration and operation from the local luminance pattern detection unit 172 to the image type determination output, which are features of the present embodiment, will be described.

【0243】この局所輝度パターン検出部172から出
力である局所輝度パターンベクトルYi は、並列的にベ
クトル量子化部173を構成するベクトル量子化器VQ
1 ,VQ2 ,…,VQj ,…,VQJ に入力される。但
し、Jは識別したい画像の種類の数を示す。ベクトル量
子化器VQj は、画像種に対応した代表ベクトルを使っ
て量子化する。
The local luminance pattern vector Y i output from the local luminance pattern detecting section 172 is provided in parallel with the vector quantizer VQ constituting the vector quantizing section 173.
1, VQ 2, ..., VQ j, ..., are input to the VQ J. Here, J indicates the number of types of images to be identified. Vector quantizer VQ j quantizes using the representative vector corresponding to the image type.

【0244】ベクトル量子化器VQj の代表ベクトル
は、次のようにして求められる。
A representative vector of the vector quantizer VQ j is obtained as follows.

【0245】まず画像種ごとに、十分な判定対象ブロッ
ク数で着目画素の輝度y0 とそれに隣接する所定数(N
−1)個の輝度y1 ,y2 ,y3 ,…,yN-1 からなる
局所輝度パターンとしてのベクトルYi (y0 ,y1
2 ,y3 ,…,yN-1 )をL個のブロックについて繰
り返し検出する。1つのブロックで検出されるベクトル
i は、各輝度成分yj (j=0,1,2,…,N−
1)の量子化がQステップならば、i=0,1,2,
…,QN −1通り存在するが、ベクトルYi の成分数N
が大きくなると莫大なベクトル数になるので、量子化幅
を大きく採って各輝度成分の量子化数を必要に応じて縮
小しても構わない。得られたベクトルYi は、画像種そ
れぞれにN次元空間において第13実施例で説明したL
BGアルゴリズムを使って所定数Kの代表ベクトルが求
められる。
First, for each image type, the luminance y 0 of the pixel of interest and the predetermined number (N
-1) luminance y 1, y 2, y 3 , ..., vector Y i (y 0, y 1 as a topical luminance pattern consisting of y N-1,
y 2 , y 3 ,..., y N-1 ) are repeatedly detected for L blocks. The vector Y i detected in one block is represented by each luminance component y j (j = 0, 1, 2,..., N−
If the quantization of 1) is a Q step, i = 0,1,2,2
.., Q N −1, but the number N of components of the vector Y i
Becomes large, the number of vectors becomes enormous. Therefore, a large quantization width may be used to reduce the number of quantization of each luminance component as necessary. The obtained vector Y i is, for each image type, in the N-dimensional space L
A predetermined number K of representative vectors are obtained using the BG algorithm.

【0246】前記局所輝度パターン検出部172から出
力され、ベクトル量子化器VQj 173に入力された検
出ベクトルは、先に求められている代表ベクトルとユー
クリッド距離が計算されて、検出ベクトルに対しもっと
も距離が小さい代表ベクトルが選択されてベクトル量子
化が完了する。
The detected vector output from the local luminance pattern detecting section 172 and input to the vector quantizer VQ j 173 is calculated by calculating the Euclidean distance from the previously calculated representative vector, and A representative vector having a small distance is selected, and the vector quantization is completed.

【0247】この処理は各ベクトル量子化器VQj で同
時に実行される。ベクトル量子化器VQj からの出力
は、分散合計算出器174に入力されて、1つの判定対
象ブロックから検出された量子化されるベクトルの度数
分布を生成し、それぞれの量子化されたベクトルそれぞ
れの分散σの合計Eを計算する。即ち、任意の判定対象
ブロック1から検出され且つ任意のベクトル量子化器V
j において量子化されるベクトル(代表ベクトル)を
jkL (k=0,1,…,K;L =1,2,…,L)と
し、その発生度数Freq(Yjk)とすれば、分散合計
j は、
This process is executed simultaneously by each vector quantizer VQ j . The output from the vector quantizer VQ j is input to a variance sum calculator 174 to generate a frequency distribution of quantized vectors detected from one determination target block. Is calculated. That is, any vector quantizer V detected from any determination target block 1
If the vector (representative vector) quantized in Q j is Y jkL (k = 0, 1,..., K; L = 1, 2,..., L) and its occurrence frequency Freq (Yjk), The total E j is

【0248】[0248]

【数5】 で与えられる。(Equation 5) Given by

【0249】分散合計算出器174から同時出力される
各画像種ごとに分散合計Ej は、評価部175に入力さ
れて、その最小値を示す画像種を出力する。出力された
画像種が判定対象ブロックの識別結果である。
The variance sum E j for each image type simultaneously output from the variance total calculator 174 is input to the evaluation unit 175, and the image type indicating the minimum value is output. The output image type is the identification result of the determination target block.

【0250】本実施例ではベクトル量子化するときの代
表ベクトルが、予め画像種ごとに一様な発生分布になる
よう計算されている。そのため識別時に対応する画像種
が入力されると、その量子化ベクトルの発生度数は一様
になり、それ以外は分散が大きくなるので、何れの画像
種の分布かが区別できることになる。
In this embodiment, the representative vectors used for vector quantization are calculated in advance so as to have a uniform occurrence distribution for each image type. Therefore, when a corresponding image type is input at the time of identification, the frequency of occurrence of the quantization vector becomes uniform, and the variance increases in other cases, so that it is possible to distinguish which image type is distributed.

【0251】また本発明は、前述した実施例に限定され
るものではなく、他にも発明の要旨を逸脱しない範囲で
種々の変形や応用が可能であることは勿論である。
The present invention is not limited to the above-described embodiments, and it goes without saying that various modifications and applications are possible without departing from the spirit of the invention.

【0252】[0252]

【発明の効果】以上詳述したように本発明によれば、各
種画像が混在した入力画像を画像の種類毎の領域に分割
でき、例えば各種画像種類に適した画像データ圧縮によ
り混在画像全体のデータ圧縮率を高めることができ、画
像の画質を向上させる画像処理装置を提供することがで
きる。
As described in detail above, according to the present invention, an input image in which various images are mixed can be divided into regions for each type of image, and for example, the entire mixed image can be compressed by image data compression suitable for various image types. It is possible to provide an image processing device that can increase the data compression ratio and improve the image quality of an image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、本発明による実施例としての画像処理
装置の構成を示す図である。
FIG. 1 is a diagram showing a configuration of an image processing apparatus as an embodiment according to the present invention.

【図2】図2には、黒画素抽出の処理を行う構成を示す
図である。
FIG. 2 is a diagram illustrating a configuration for performing black pixel extraction processing;

【図3】図3は、2値化処理及び、エッジ抽出処理を行
う構成例を示す図である。
FIG. 3 is a diagram illustrating a configuration example for performing binarization processing and edge extraction processing;

【図4】図4は、連続構成要素領域の境界抽出を行う構
成を示す図である。
FIG. 4 is a diagram illustrating a configuration for extracting a boundary of a continuous component area;

【図5】図5(a)は事前に画像種類の違いによる特徴
を統計データより抽出して判定時の評価基準を判定する
構成を示し、図5(b)は求めた評価基準を使って実際
の画像種類の判定を行う構成を示す図である。
FIG. 5A shows a configuration in which features based on differences in image types are extracted from statistical data in advance to determine an evaluation criterion at the time of determination, and FIG. 5B shows a configuration using the obtained evaluation criterion. FIG. 4 is a diagram illustrating a configuration for determining an actual image type.

【図6】本発明の画像処理装置の概念的な構成図であ
る。
FIG. 6 is a conceptual configuration diagram of the image processing apparatus of the present invention.

【図7】本発明による第2実施例としての画像処理装置
の構成を示す図である。
FIG. 7 is a diagram showing a configuration of an image processing apparatus as a second embodiment according to the present invention.

【図8】図7に示した画像処理装置の差分・2値化処理
を説明をするための図である。
FIG. 8 is a diagram for explaining a difference / binarization process of the image processing apparatus shown in FIG. 7;

【図9】第2実施例における弧立点除去フィルタを説明
するための図である。
FIG. 9 is a diagram illustrating an arc standing point removal filter according to a second embodiment.

【図10】第2実施例におけるラベル処理を説明するた
めの図である。
FIG. 10 is a diagram for explaining label processing in the second embodiment.

【図11】第2実施例における矩形領域抽出を説明する
ための図である。
FIG. 11 is a diagram for explaining rectangular region extraction in the second embodiment.

【図12】第2実施例における各処理過程の出力画像を
第1の例を示す図である。
FIG. 12 is a diagram showing a first example of an output image in each processing step in the second embodiment.

【図13】第2実施例における各処理過程の出力画像を
第2の例を示す図である。
FIG. 13 is a diagram showing a second example of an output image in each processing step in the second embodiment.

【図14】第2実施例における各処理過程の出力画像を
第3の例を示す図である。
FIG. 14 is a diagram showing a third example of an output image in each processing step in the second embodiment.

【図15】本発明による第3実施例としての画像処理装
置の構成を示す図である。
FIG. 15 is a diagram showing a configuration of an image processing apparatus as a third embodiment according to the present invention.

【図16】図15に示した比・2値化処理を説明するた
めの図である。
FIG. 16 is a diagram for explaining the ratio / binarization process shown in FIG. 15;

【図17】第3実施例における各処理過程の出力画像を
第1の例を示す図である。
FIG. 17 is a diagram showing a first example of an output image in each processing step in the third embodiment.

【図18】第3実施例における各処理過程の出力画像を
第2の例を示す図である。
FIG. 18 is a diagram showing a second example of an output image in each processing step in the third embodiment.

【図19】第3実施例における各処理過程の出力画像を
第3の例を示す図である。
FIG. 19 is a diagram showing a third example of an output image in each processing step in the third embodiment.

【図20】第3実施例における対数差分・2値化処理の
説明するための図である。
FIG. 20 is a diagram for describing logarithmic difference / binarization processing in the third embodiment.

【図21】第3実施例と同様の効果をもつ2値化操作を
行う場合の別構成を示す図である。
FIG. 21 is a diagram illustrating another configuration when performing a binarization operation having the same effect as the third embodiment.

【図22】本発明による第4実施例としての画像処理装
置の構成を示す図である。
FIG. 22 is a diagram illustrating a configuration of an image processing apparatus as a fourth embodiment according to the present invention.

【図23】第4実施例における固定閾値により2値化を
行なう場合の別構成を示す図である。
FIG. 23 is a diagram illustrating another configuration when binarization is performed using a fixed threshold value in the fourth embodiment.

【図24】第4実施例における微分フィルタによるエッ
ジ抽出処理を説明するための図である。
FIG. 24 is a diagram for explaining edge extraction processing by a differential filter in a fourth embodiment.

【図25】本発明による第5実施例としての画像処理装
置の構成を示す図である。
FIG. 25 is a diagram showing a configuration of an image processing apparatus as a fifth embodiment according to the present invention.

【図26】第5実施例における短白ラン/黒ラン変換に
よるブロック処理を説明するための図である。
FIG. 26 is a diagram for describing block processing by short white run / black run conversion in the fifth embodiment.

【図27】本発明による第6実施例としての画像処理装
置の構成を示す図である。
FIG. 27 is a diagram illustrating a configuration of an image processing apparatus as a sixth embodiment according to the present invention.

【図28】第6実施例における混在画像を同種画像領域
に分割方法を説明するための図である。
FIG. 28 is a diagram for explaining a method of dividing a mixed image into the same type of image area in the sixth embodiment.

【図29】第6実施例における輝度レベルを修正する方
法を説明するための図である。
FIG. 29 is a diagram for explaining a method of correcting a luminance level in the sixth embodiment.

【図30】第6実施例における修正輝度ヒストグラムの
算出方法を説明するための図である。
FIG. 30 is a diagram for explaining a method of calculating a corrected luminance histogram in the sixth embodiment.

【図31】本発明の実施例に用いたニューラルネットワ
ークを利用するベクトル量子化器の構成を示す図であ
る。
FIG. 31 is a diagram showing a configuration of a vector quantizer using a neural network used in an embodiment of the present invention.

【図32】第6実施例における判定された画像種結果を
評価する方法を説明するための図である。
FIG. 32 is a diagram for explaining a method of evaluating a determined image type result in the sixth embodiment.

【図33】複数判定対象領域による画像種判定を説明す
るための構成例を示す図である。
FIG. 33 is a diagram illustrating a configuration example for describing image type determination using a plurality of determination target areas.

【図34】本発明による第7実施例としての画像処理装
置の構成を示す図である。
FIG. 34 is a diagram illustrating a configuration of an image processing apparatus as a seventh embodiment according to the present invention.

【図35】本発明による第8実施例としての画像処理装
置の構成を示す図である。
FIG. 35 is a diagram illustrating a configuration of an image processing apparatus as an eighth embodiment according to the present invention.

【図36】第8実施例における勾配ベクトル方位と修正
輝度レベルが呈する画像種毎の特徴パターンの第2の典
型例を示す図である。
FIG. 36 is a diagram showing a second typical example of a feature pattern for each image type represented by the gradient vector direction and the corrected luminance level in the eighth embodiment.

【図37】第8実施例における勾配ベクトル方位と修正
輝度レベルによって区別される典型特徴パターンを示す
図である。
FIG. 37 is a diagram showing a typical feature pattern distinguished by a gradient vector direction and a corrected luminance level in the eighth embodiment.

【図38】第8実施例において、2つのパラメータが示
す文字種類に対する特徴を示す図である。
FIG. 38 is a diagram illustrating characteristics of character types indicated by two parameters in the eighth embodiment.

【図39】本発明による第9実施例としての画像処理装
置の構成を示す図である。
FIG. 39 is a diagram showing a configuration of an image processing apparatus as a ninth embodiment according to the present invention.

【図40】本発明による第10実施例としての画像処理
装置の構成を示す図である。
FIG. 40 is a diagram showing a configuration of an image processing apparatus as a tenth embodiment according to the present invention.

【図41】第10実施例における輝度レベルパターンを
説明するための図である。
FIG. 41 is a diagram for explaining a luminance level pattern in the tenth embodiment.

【図42】第10実施例における局所輝度パターンの画
像種ごとに分布形状の一例を示した図である。
FIG. 42 is a diagram showing an example of a distribution shape for each image type of a local luminance pattern in the tenth embodiment.

【図43】第10実施例におけるベクトル量子化につい
て説明するための図である。
FIG. 43 is a diagram for describing vector quantization in the tenth embodiment.

【図44】本発明による第11実施例におけるベクトル
量子化について説明するための図である。
FIG. 44 is a diagram for describing vector quantization in an eleventh embodiment according to the present invention.

【図45】本発明による第12実施例におけるベクトル
量子化について説明するための図である。
FIG. 45 is a diagram for describing vector quantization in a twelfth embodiment according to the present invention.

【図46】本発明による第13実施例におけるベクトル
量子化について説明するための図である。
FIG. 46 is a diagram for describing vector quantization in a thirteenth embodiment according to the present invention.

【図47】本発明による第15実施例におけるベクトル
量子化について説明するための図である。
FIG. 47 is a diagram for describing vector quantization in a fifteenth embodiment according to the present invention.

【図48】本発明による第16実施例としての画像処理
装置の構成を示す図である。
FIG. 48 is a diagram illustrating a configuration of an image processing apparatus as a sixteenth embodiment according to the present invention;

【図49】従来の画像処理装置の概略的な構成図であ
る。
FIG. 49 is a schematic configuration diagram of a conventional image processing apparatus.

【符号の説明】[Explanation of symbols]

1…画像入力部、1a…光学系、1b…固体撮像素子、
2…カラー/モノクロ変換処理部、3…2値化処理部、
4…縮小処理部、5…連続構成要素領域の境界抽出部、
6…画像種類判定部、7…データ圧縮部、11,12…
差分演算処理部、13,14…2値化処理部、15,2
5…合成部、16,17…黒画素再生部、20…境界線
算出部、21,22…差分演算処理部、23,24…2
値化処理部、26…間引き処理部、27…LPF(ロー
パスフィルタ)、28…エッジ抽出部、31…エッジ抽
出部、32…KL変換部、33…基底ベクトル抽出部、
34…内積演算部、35…ニューラルネットワーク部、
36…教師データ入力部。
DESCRIPTION OF SYMBOLS 1 ... Image input part, 1a ... Optical system, 1b ... Solid-state image sensor,
2 ... color / monochrome conversion processing unit, 3 ... binarization processing unit,
4 ... reduction processing unit, 5 ... continuous component area boundary extraction unit,
6 image type determination unit, 7 data compression unit, 11, 12 ...
Difference operation processing unit, 13, 14,... Binarization processing unit, 15, 2
5: synthesis unit, 16, 17: black pixel reproduction unit, 20: boundary line calculation unit, 21, 22: difference calculation processing unit, 23, 24 ... 2
Value processing unit, 26: thinning processing unit, 27: LPF (low-pass filter), 28: edge extraction unit, 31: edge extraction unit, 32: KL conversion unit, 33: base vector extraction unit,
34 ... inner product operation unit, 35 ... neural network unit,
36 ... Teacher data input unit.

フロントページの続き (56)参考文献 特開 平4−326671(JP,A) 特開 平1−144778(JP,A) 特開 平1−181280(JP,A) 特開 昭61−296481(JP,A) 特開 昭62−82771(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 1/40 - 1/409 Continuation of the front page (56) References JP-A-4-326667 (JP, A) JP-A-1-144778 (JP, A) JP-A-1-181280 (JP, A) JP-A-61-296481 (JP) , A) JP-A-62-82771 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) H04N 1/40-1/409

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 文字、絵柄および写真等が混在する混在
画像から、文字列、絵柄、写真等の各領域を分割する画
像処理装置において、 前記混在画像を記憶する画像メモリと、 前記画像メモリに記憶された混在画像からエッジを抽出
し、2値画像に変換するエッジ抽出・2値化処理手段
と、 前記2値画像を所定数の画素からなる小領域に分割し、
各小領域を1画素に縮小する縮小画像処理手段と、 前記縮小画像中の黒画素領域を統合し、ブロック化する
ブロック処理手段と、 前記ブロック処理手段のブロック化により連結した黒画
素の存在範囲から画像領域外接矩形の対角座標を求める
矩形領域抽出手段とを具備したことを特徴とする画像処
理装置。
1. An image processing apparatus which divides each region of a character string, a pattern, a photograph, and the like from a mixed image in which characters, pictures, photographs, and the like are mixed, wherein: an image memory for storing the mixed image; Edge extraction and binarization processing means for extracting an edge from the stored mixed image and converting it into a binary image; and dividing the binary image into small areas each having a predetermined number of pixels.
Reduced image processing means for reducing each small area to one pixel; block processing means for integrating and blocking the black pixel areas in the reduced image; and a range of black pixels connected by blocking the block processing means And a rectangular area extracting means for obtaining diagonal coordinates of an image area circumscribed rectangle from the image processing apparatus.
【請求項2】 文字,絵柄および写真等が混在する混在
画像を蓄積する画像フレームメモリと、 前記画像フレームメモリから出力される画像データを同
種類毎の画像領域に分割して、同種画像領域の位置並び
に大きさを出力する同種画像領域分割手段と、 前記同種画像領域内から所定の大きさの小領域を選択抽
出し、該小領域の位置、大きさを出力する探索ブロック
領域選択手段と、 前記探索ブロック領域選択手段により選択された小領域
に対応する画像データを判定対象領域として前記画像フ
レームメモリより読み出し、一時蓄積する判定対象ブロ
ック画像メモリと、 前記判定対象領域の画像データから差分値データを検出
する差分検出手段と、前記差分値データにより輝度修正
のための修正パラメータを算出し、前記修正パラメータ
に基づき、前記判定対象領域の画像データから修正され
た輝度レベルを算出する輝度レベル修正処理手段と、 前記差分検出手段からの水平・垂直差分値データ、及び
前記輝度レベル修正処理手段からの修正輝度レベルデー
タをベクトル量子化するベクトル量子化手段と、 前記ベクトル量子化手段からの量子化ベクトルの各成分
の計数を行う量子化ベクトル計数手段と、 計数された量子化ベクトルの成分を入力とし、所定の画
像種類を出力するニューラルネットワーク(神経回路
網)と、 出力される画像種類の判定結果を評価し決定して、前記
同種画像領域の位置及び大きさのデータと合わせて決定
した画像種類を出力する画像種決定手段と、 を具備することを特徴とする画像処理装置。
2. An image frame memory for storing mixed images in which characters, pictures, photographs, and the like are mixed, and image data output from the image frame memory divided into image areas of the same type, A similar image region dividing unit that outputs a position and a size, a search block region selecting unit that selectively extracts a small region of a predetermined size from within the same image region, and outputs the position and the size of the small region, Image data corresponding to the small area selected by the search block area selecting means is read from the image frame memory as a determination target area and temporarily stored in a determination target block image memory; and difference value data from the image data of the determination target area And a correction parameter for correcting the brightness based on the difference value data, and the correction parameter Brightness level correction processing means for calculating a corrected brightness level from the image data of the determination target area; horizontal / vertical difference value data from the difference detection means; and a corrected brightness level from the brightness level correction processing means. Vector quantization means for vector-quantizing the data; quantization vector counting means for counting each component of the quantization vector from the vector quantization means; and A neural network (neural network) for outputting an image type, and evaluating and determining a determination result of the output image type, and outputting the determined image type in combination with the position and size data of the same type image region. An image processing apparatus comprising: an image type determining unit.
【請求項3】 画像データを入力する画像入力手段と、 前記入力した画像データ内から所定の大きさで小領域を
選択抽出する判定対象領域選択部と、 判定対象領域の画像データから隣接する画素の所定数
(N)の画素からなる局所特徴パターンを検出する局所
特徴パターン検出手段と、 前記局所特徴パターンをN次元空間上でベクトル量子化
するベクトル量子化手段と、 前記ベクトル量子化手段により量子化された代表ベクト
ルに対してその発生頻度を計数してヒストグラムを算出
するヒストグラム生成手段と、 前記ヒストグラム生成手段により求められた量子化ベク
トルヒストグラムを入力として、その分布形状を識別し
て所望する画像種類を出力する画像種識別手段と、 前記識別結果を得て、画像種類を決定する画像種決定手
段と、 を具備することを特徴とする画像処理装置。
3. An image input means for inputting image data, a determination target area selection unit for selectively extracting a small area of a predetermined size from the input image data, and an adjacent pixel from the image data of the determination target area Local feature pattern detection means for detecting a local feature pattern composed of a predetermined number (N) of pixels, vector quantization means for vector-quantizing the local feature pattern in an N-dimensional space, and quantization by the vector quantization means. Histogram generating means for counting the frequency of occurrence of the converted representative vector to calculate a histogram, and inputting the quantized vector histogram obtained by the histogram generating means as input, identifying a distribution shape thereof, and obtaining a desired image. An image type identification unit that outputs a type, an image type determination unit that obtains the identification result, and determines an image type, The image processing apparatus characterized by comprising.
JP26046593A 1992-09-25 1993-09-27 Image processing device Expired - Fee Related JP3353968B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26046593A JP3353968B2 (en) 1992-09-25 1993-09-27 Image processing device

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP25685392 1992-09-25
JP5-163635 1993-07-01
JP16363593 1993-07-01
JP4-256853 1993-07-01
JP26046593A JP3353968B2 (en) 1992-09-25 1993-09-27 Image processing device

Publications (2)

Publication Number Publication Date
JPH0799581A JPH0799581A (en) 1995-04-11
JP3353968B2 true JP3353968B2 (en) 2002-12-09

Family

ID=27322198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26046593A Expired - Fee Related JP3353968B2 (en) 1992-09-25 1993-09-27 Image processing device

Country Status (1)

Country Link
JP (1) JP3353968B2 (en)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1044513A (en) * 1996-08-07 1998-02-17 Olympus Optical Co Ltd Code printer and code print medium applied thereto
JP3501031B2 (en) 1999-08-24 2004-02-23 日本電気株式会社 Image region determination device, image region determination method, and storage medium storing program thereof
JP2001297303A (en) 2000-02-09 2001-10-26 Ricoh Co Ltd Method and device for recognizing document image and computer readable recording medium
US7221483B2 (en) 2000-09-05 2007-05-22 Ricoh Company, Ltd. Image encoding method and apparatus, image decoding method and apparatus, image processing apparatus, image formation apparatus, and computer-executable programs
JP2002174603A (en) * 2000-12-08 2002-06-21 Olympus Optical Co Ltd Defect classifying method
US20050157923A1 (en) * 2002-05-15 2005-07-21 Mutsuji Takahashi Image processing system and image processing method
JP4067957B2 (en) 2002-12-20 2008-03-26 富士通株式会社 Boundary detection method, program, and image processing apparatus
JP4439829B2 (en) * 2003-03-11 2010-03-24 財団法人国際科学振興財団 Data analysis apparatus and data recognition apparatus
JP4598426B2 (en) * 2004-03-30 2010-12-15 富士通株式会社 Boundary extraction method, program, and apparatus using the same
JP4420877B2 (en) 2005-09-22 2010-02-24 シャープ株式会社 Image processing method, image processing apparatus, and image output apparatus
JP4612522B2 (en) * 2005-10-13 2011-01-12 日本電信電話株式会社 Change area calculation method, change area calculation device, change area calculation program
JP2008099273A (en) * 2007-09-28 2008-04-24 Sony Corp Image processor
US8331619B2 (en) 2008-03-14 2012-12-11 Sony Computer Entertainment Inc. Image processing apparatus and image processing method
KR101459782B1 (en) * 2008-09-08 2014-11-10 현대자동차주식회사 A system for enhancing a night time image for a vehicle camera
JP5441484B2 (en) * 2009-04-22 2014-03-12 三菱電機株式会社 Crater detection device
JP2010134958A (en) * 2010-02-08 2010-06-17 Fujitsu Ltd Boundary detection method, program and device using the same
KR101894355B1 (en) 2010-11-04 2018-09-04 지이 비디오 컴프레션, 엘엘씨 Picture coding supporting block merging and skip mode
JP5881356B2 (en) * 2011-09-27 2016-03-09 オリンパス株式会社 Microscope system
EP3328081B1 (en) 2011-11-11 2019-10-16 GE Video Compression, LLC Effective prediction using partition coding
EP4325865A3 (en) 2011-11-11 2024-05-29 GE Video Compression, LLC Effective partition coding with high degree of partitioning freedom
EP2777286B1 (en) 2011-11-11 2017-01-04 GE Video Compression, LLC Effective wedgelet partition coding
EP2777284B1 (en) 2011-11-11 2018-09-05 GE Video Compression, LLC Effective wedgelet partition coding using spatial prediction
KR101985244B1 (en) * 2013-04-30 2019-06-03 엘지디스플레이 주식회사 Organic light emitting display and compensation method of driving characteristics thereof
JP6809869B2 (en) * 2016-11-02 2021-01-06 Eizo株式会社 Gauze detection system
JP7056161B2 (en) * 2018-01-16 2022-04-19 富士フイルムビジネスイノベーション株式会社 Color converter and program
DE112018007543T5 (en) 2018-05-01 2021-01-28 Eizo Corporation MULL DETECTION SYSTEM AND METHOD FOR MULL DETECTION
JP7077998B2 (en) * 2019-03-07 2022-05-31 セイコーエプソン株式会社 Information processing equipment

Also Published As

Publication number Publication date
JPH0799581A (en) 1995-04-11

Similar Documents

Publication Publication Date Title
JP3353968B2 (en) Image processing device
US5872864A (en) Image processing apparatus for performing adaptive data processing in accordance with kind of image
JP3373008B2 (en) Image area separation device
JP5008572B2 (en) Image processing method, image processing apparatus, and computer-readable medium
US5546474A (en) Detection of photo regions in digital images
Papamarkos et al. Adaptive color reduction
KR100946888B1 (en) Device and method for correcting a skew of image
JP3207690B2 (en) Image processing device
JP4098021B2 (en) Scene identification method, apparatus, and program
US20010026633A1 (en) Method for detecting a face in a digital image
EP1231565A1 (en) Image colour correction based on image pattern recognition, the image pattern including a reference colour
US20030198382A1 (en) Apparatus and method for removing background on visual
JPH1153525A (en) Facial organ detector and medium
EP1700269A2 (en) Detection of sky in digital color images
US20150139546A1 (en) Image segmenting apparatus and method
KR20040069867A (en) Device and method for binarization of image using quadratic filter and improved quadratic filter
US6941013B1 (en) Method of image binarization using histogram modeling
CN114170418B (en) Multi-feature fusion image retrieval method for automobile harness connector by means of graph searching
US7620246B2 (en) Method and apparatus for image processing
CN113052170A (en) Small target license plate recognition method under unconstrained scene
Djerriri et al. Improving hyperspectral image classification by combining spectral and multiband compact texture features
JP2009123234A (en) Object identification method, apparatus and program
CN113723410B (en) Digital identification method and device for nixie tube
JP4285640B2 (en) Object identification method, apparatus and program
CN114549649A (en) Feature matching-based rapid identification method for scanned map point symbols

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020903

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070927

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080927

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees