JP3488678B2 - Image classification device - Google Patents
Image classification deviceInfo
- Publication number
- JP3488678B2 JP3488678B2 JP2000242126A JP2000242126A JP3488678B2 JP 3488678 B2 JP3488678 B2 JP 3488678B2 JP 2000242126 A JP2000242126 A JP 2000242126A JP 2000242126 A JP2000242126 A JP 2000242126A JP 3488678 B2 JP3488678 B2 JP 3488678B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- memory
- differential
- connected component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
【0001】[0001]
【発明の属する技術分野】この発明は画像分類装置に関
し、特に画像データベース入力時に入力画像の属性を判
定し、自動的に分類、登録する画像分類装置に関するも
のである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image classifying apparatus, and more particularly to an image classifying apparatus for automatically classifying and registering attributes of input images when inputting an image database.
【0002】[0002]
【従来の技術】人間が予め文書画像であると判断した画
像に対して、その画像の内部を自動的に領域分割して各
領域の属性判定を行なう方法が(イ)特開平4−316
180号公報および(ロ)特開昭62−71379号公
報において開示されている。2. Description of the Related Art A method of automatically dividing the inside of an image into which an image is determined to be a document image by a human and performing attribute determination of each region is disclosed in Japanese Patent Laid-Open No. 4-316.
180 and (B) Japanese Patent Laid-Open No. 62-71379.
【0003】前者(イ)は2値化された入力画像を領域
分割し、各々の領域の白黒反転回数や黒画素の割合によ
り写真領域か文字領域かなどの属性を判定するものであ
り、後者(ロ)は同じく2値化された入力画像を領域分
割し、各々の領域のランレングス特徴や黒画素率によ
り、写真領域か文字領域かなどの属性を判定するもので
ある。The former (a) divides a binarized input image into regions, and determines attributes such as a photo region or a character region based on the number of black and white inversions in each region and the ratio of black pixels. (B) similarly divides the binarized input image into regions, and determines attributes such as a photo region or a character region based on the run-length characteristics and the black pixel ratio of each region.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、従来の
技術は文書画像を対象として、画像内部で領域分割され
た各々の領域の属性を判定するのみであり、入力画像そ
のものが文書画像であるか否かを判定する方法や装置は
これまで開示されていなかった。However, the conventional technique only determines the attribute of each area divided into areas in the document image, and determines whether the input image itself is the document image. The method and apparatus for determining whether or not has not been disclosed so far.
【0005】そのため、文書画像に限らずさまざまな画
像データが入力されるマルチメディアデータベースに画
像が登録される際には、人間がその入力画像の内容を分
類、判断して適当なキーワードを付加する必要があっ
た。Therefore, when an image is registered in a multimedia database into which various image data are input, not limited to a document image, a person classifies and judges the contents of the input image and adds an appropriate keyword. There was a need.
【0006】また、このようなマルチメディアデータベ
ースに特開平4−316180号公報および特開昭62
−71379号公報の技法を適用するときには、まず入
力された画像が文書画像であるかどうかを人間が予め判
定してからそれらの技法を適用しなければならない。Further, in such a multimedia database, Japanese Patent Application Laid-Open No. 4-316180 and Japanese Patent Application Laid-Open No. 62-216180 are disclosed.
When applying the techniques of JP-A-71379, it is necessary for a person to determine in advance whether or not the input image is a document image before applying the techniques.
【0007】さらに画像データから名刺画像のみを分類
する装置も従来技術としてなかったため、名刺画像から
例えば文字認識を利用して住所録作成などの処理を行な
う場合、さまざまな画像中から人間が名刺画像を選び出
し、それぞれの画像に対して文字認識処理を行なうとい
う手間をかけなければならなかった。Further, since there is no conventional apparatus for classifying only the business card images from the image data, when performing processing such as address book creation from the business card images by utilizing, for example, character recognition, a human is selected from the various images. Had to be selected and the character recognition processing was performed on each image.
【0008】この発明は、上記のような課題を解決する
ためになされたもので、入力された画像そのものが文書
画像であるかどうか、特に名刺画像であるかどうかを自
動的に判定して人間の手間をかけずに分類(キーワード
付加)して画像データベースに登録することができ、ま
た画像の内容に応じた処理、例えば文字認識を用いた住
所録作成などを自動的に行なうことのできる画像分類装
置を提供することを目的とする。The present invention has been made in order to solve the above problems, and automatically determines whether the input image itself is a document image, particularly whether it is a business card image or not. An image that can be classified (adding keywords) and registered in the image database without the trouble of, and that can automatically perform processing according to the content of the image, such as address book creation using character recognition. An object is to provide a classification device.
【0009】[0009]
【課題を解決するための手段】本発明による画像分類装
置は、入力された画像データの中から対象物を表わす隣
接した複数の画素よりなる連結成分を識別する識別手段
と、連結成分の数を特徴量として計測する計測手段と、
計測された特徴量に基づいて、入力された画像データが
名刺画像か否かを判別する判別手段とを備えたものであ
る。An image classification apparatus according to the present invention is configured to identify, from input image data, a connected component which is a plurality of adjacent pixels and which represents an object, and a number of connected components. Measuring means for measuring as a feature amount,
And a determination unit that determines whether or not the input image data is a business card image based on the measured feature amount.
【0010】本発明による画像分類装置は、入力された
画像データの中から対象物を表わす隣接した複数の画素
よりなる連結成分を識別する識別手段と、識別された連
結成分を最隣接する2つの連結成分ごとに分け、分けら
れた2つの連結成分ごとの並び方向を抽出する方向抽出
手段と、抽出された並び方向の特定の範囲の方向への集
中度を特徴量として計測する計測手段と、計測された特
徴量に基づいて、入力された画像データが名刺画像か否
かを判別する判別手段とを備えたものである。The image classifying apparatus according to the present invention comprises an identifying means for identifying a connected component consisting of a plurality of adjacent pixels representing an object from the input image data, and two adjacently adjacent identified connected components. Direction extracting means for dividing each connected component and extracting the arrangement direction for each of the two connected components; measuring means for measuring the degree of concentration of the extracted arrangement direction in the direction of a specific range as a feature amount; And a determination unit that determines whether or not the input image data is a business card image based on the measured feature amount.
【0011】本発明による画像分類装置は、入力された
画像データから微分画像データを作成する微分画像デー
タ作成手段と、微分画像データに基づいて、濃度投影ヒ
ストグラムを作成する濃度投影ヒストグラム作成手段
と、作成された濃度投影ヒストグラムから特徴量を計算
する計算手段と、計算された特徴量に基づいて、入力さ
れた画像データが名刺画像か否かを判別する判別手段と
を備えたものである。The image classification apparatus according to the present invention comprises: differential image data creating means for creating differential image data from input image data; density projection histogram creating means for creating a density projection histogram based on the differential image data; It is provided with a calculating means for calculating a feature amount from the created density projection histogram, and a determining means for determining whether or not the input image data is a business card image based on the calculated feature amount.
【0012】また、本発明による画像分類装置は、上記
記載の画像分類装置であって、識別された連結成分を最
隣接する2つの連結成分ごとに分け、分けられた2つの
連結成分ごとの並び方向を抽出する方向抽出手段と、抽
出された並び方向の特定の範囲の方向への集中度を特徴
量として計測する計測手段とをさらに備え、特徴量は特
定の範囲の方向への集中度を含むものである。The image classifying apparatus according to the present invention is the above-described image classifying apparatus, in which the identified connected component is divided into two most adjacent connected components, and the divided two connected components are arranged. A direction extracting means for extracting the direction and a measuring means for measuring the degree of concentration of the extracted arrangement direction in the direction of a specific range as a feature amount are provided, and the feature amount indicates the degree of concentration in the direction of the specific range. It includes.
【0013】また、本発明による画像分類装置は、上記
記載の画像分類装置であって、入力された画像データか
ら微分画像データを作成する微分画像データ作成手段
と、微分画像データに基づいて、濃度投影ヒストグラム
を作成する濃度投影ヒストグラム作成手段と、作成され
た濃度投影ヒストグラムの微分値に基づくデータを計算
する計算手段とをさらに備え、特徴量は濃度投影ヒスト
グラムの微分値に基づくデータを含むものである。The image classifying apparatus according to the present invention is the above-mentioned image classifying apparatus, wherein differential image data creating means for creating differential image data from input image data, and density based on the differential image data. The present invention further comprises density projection histogram creating means for creating a projection histogram, and calculation means for calculating data based on the differential value of the created density projection histogram, and the feature amount includes data based on the differential value of the density projection histogram.
【0014】また、本発明による画像分類装置は、上記
記載の画像分類装置であって、識別手段は、入力された
画像データの中から対象物を表わす隣接した複数の画像
のうち所定の条件を満たす画素を連結成分として識別す
るものである。The image classifying apparatus according to the present invention is the above-mentioned image classifying apparatus, wherein the identifying means sets a predetermined condition among a plurality of adjacent images representing an object from the input image data. Pixels to be filled are identified as connected components.
【0015】(作用)本発明による画像分類装置は、入
力された画像データの中から対象物を表わす隣接した複
数の画素よりなる連結成分を識別し、連結成分の数を特
徴量として計測し、計測された特徴量に基づいて入力さ
れた画像データが名刺画像か否か判別する。(Operation) The image classification device according to the present invention identifies a connected component consisting of a plurality of adjacent pixels representing an object from the input image data, and measures the number of connected components as a feature quantity. Based on the measured feature amount, it is determined whether the input image data is a business card image.
【0016】本発明による画像分類装置は、入力された
画像データの中から対象物を表わす隣接した複数の画素
よりなる連結成分を識別し、識別された連結成分を最隣
接する2つの連結成分ごとに分け、分けられた2つの連
結成分ごとの並び方向を抽出し、抽出された並び方向の
特定の範囲の方向への集中度を特徴量として計測し、特
徴量に基づいて入力された画像データが名刺画像か否か
判別する。The image classification apparatus according to the present invention identifies a connected component consisting of a plurality of adjacent pixels representing an object from the input image data, and identifies the identified connected component for every two adjacent connected components. The arrangement direction of each of the two connected components that have been separated is extracted, the degree of concentration of the extracted arrangement direction in a specific range is measured as a characteristic amount, and the image data input based on the characteristic amount is extracted. Is a business card image.
【0017】本発明による画像分類装置は、入力された
画像データから微分画像データを作成し、微分画像デー
タに基づいて濃度投影ヒストグラムを作成し、作成され
た濃度投影ヒストグラムから特徴量を計算し、特徴量に
基づいて入力された画像データが名刺画像か否か判別す
る。The image classification apparatus according to the present invention creates differential image data from the input image data, creates a density projection histogram based on the differential image data, and calculates a feature amount from the created density projection histogram. It is determined whether the input image data is a business card image based on the feature amount.
【0018】本発明による画像分類装置は、上記画像分
類装置の作用に加え、識別された連結成分を最隣接する
2つの連結成分ごとに分け、分けられた2つの連結成分
ごとの並び方向を抽出し、抽出された並び方向の特定の
範囲の方向への集中度を特徴量として計測する。In addition to the function of the above-mentioned image classifying device, the image classifying device according to the present invention divides the identified connected component into two most adjacent connected components and extracts the arrangement direction of each of the two connected components. Then, the degree of concentration of the extracted arrangement direction in a specific range is measured as a feature amount.
【0019】本発明による画像分類装置は、上記画像分
類装置の作用に加え、入力された画像データから微分画
像データを作成し、微分画像データに基づいて濃度投影
ヒストグラムを作成し、作成された濃度投影ヒストグラ
ムの微分値に基づくデータを特徴量とする。In addition to the operation of the image classification device, the image classification device according to the present invention creates differential image data from the input image data, creates a density projection histogram based on the differential image data, and creates the created density. Data based on the differential value of the projection histogram is used as the feature amount.
【0020】本発明による画像分類装置は、上記画像分
類装置の作用に加え、入力された画像データの中から対
象物を表わす隣接した複数の画素のうち所定の条件を満
たす画素を連結成分として識別する。In addition to the operation of the above-described image classification device, the image classification device according to the present invention identifies, from the input image data, a pixel satisfying a predetermined condition among a plurality of adjacent pixels representing an object as a connected component. To do.
【0021】[0021]
【発明の実施の形態】以下に、本発明における画像分類
装置の実施の形態に関して図面を用いて詳細に各実施例
を説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of an image classification apparatus according to the present invention will be described below in detail with reference to the drawings.
【0022】(第1の実施例)図1は、本発明の第1の
実施例における画像分類装置のシステム構成を示すブロ
ック図である。(First Embodiment) FIG. 1 is a block diagram showing the system configuration of an image classification apparatus according to the first embodiment of the present invention.
【0023】図を参照して画像分類装置は、大きくはカ
メラやスキャナなどを含む画像入力のための画像入力装
置11と、入力された画像を処理することにより画像を
文書画像、非文書画像に分類(キーワード付け)する画
像処理装置12と、画像処理装置12により分類された
画像を記憶する画像データベース装置13とから構成さ
れる。Referring to the figure, the image classifying apparatus roughly includes an image input apparatus 11 for inputting an image, which includes a camera, a scanner, etc., and processes the input image into a document image and a non-document image. The image processing device 12 for classifying (adding keywords), and the image database device 13 for storing the images classified by the image processing device 12.
【0024】各々の装置はバス15により接続されてい
る。画像処理装置12は、入力された画像を処理、分類
し、かつシステム全体の動作を制御するためのCPUな
どで構成された制御装置121と、各種プログラムや定
数などを記憶するROM122と、画像や処理データな
どを記憶するRAM123とを含む。The respective devices are connected by a bus 15. The image processing device 12 includes a control device 121 configured by a CPU or the like for processing and classifying an input image and controlling the operation of the entire system, a ROM 122 for storing various programs and constants, an image and A RAM 123 for storing processing data and the like is included.
【0025】ROM122は、画像入力の処理のために
用いられる画像入力処理部1221と、画像を2値化す
るために用いられる画像2値化処理部1222と、2値
化された画像データの中の領域を識別する領域抽出処理
部1223と、2値化された画像データの中のデータの
連結成分にラベリング(ラベル番号を付す処理)を行な
うラベリング処理部1224と、2値化された画像デー
タの中の文字らしさの特徴を抽出する文字らしさの特徴
抽出処理部1225と、画像の分類を行なう画像分類処
理部1226と、画像データベース装置13に画像デー
タを分類して登録する画像登録処理部1227とを含
む。The ROM 122 includes an image input processing unit 1221 used for image input processing, an image binarization processing unit 1222 used for binarizing an image, and binary image data. Area extraction processing section 1223 for identifying the area of the image, a labeling processing section 1224 for performing labeling (processing for assigning a label number) to the connected components of the data in the binarized image data, and the binarized image data Character-likeness feature extraction processing unit 1225 for extracting the character-likeness features in the image, image classification processing unit 1226 for classifying images, and image registration processing unit 1227 for classifying and registering image data in the image database device 13. Including and
【0026】RAM123は、入力された画像データを
256階調の画像データとして記憶する多値画像メモリ
1231と、“0”および“1”の2値で表わされる画
像データを記憶する2値画像メモリ1232と、データ
の連結成分の各々のラベル番号を記憶するラベル画像メ
モリ1233と、各々の連結成分のフィレ座標および面
積を記憶するフィレ座標メモリ1234と、多値画像メ
モリ1231の画像データの微分画像を記憶する微分画
像メモリ1235と、微分画像メモリ1235の画像デ
ータをしきい値により2値化した画像データを記憶する
微分2値画像メモリ1236と、2値画像メモリ123
2の画像データおよび微分2値画像メモリ1236の画
像データの論理積画像(AND画像)を記憶するAND
画像メモリ1237とを含む。The RAM 123 is a multi-valued image memory 1231 that stores the input image data as image data of 256 gradations, and a binary image memory that stores the image data represented by the binary values "0" and "1". 1232, a label image memory 1233 that stores the label number of each connected component of the data, a fillet coordinate memory 1234 that stores the fillet coordinates and area of each connected component, and a differential image of the image data of the multivalued image memory 1231. A differential image memory 1235, a differential binary image memory 1236 that stores image data obtained by binarizing the image data of the differential image memory 1235 with a threshold value, and a binary image memory 123.
AND for storing a logical product image (AND image) of the image data of 2 and the image data of the differential binary image memory 1236
And an image memory 1237.
【0027】このシステム構成により、画像入力装置1
1から入力されたさまざまな画像は、画像処理装置12
において画像の持つ特徴量が調べられることにより、自
動的に文書画像か非文書画像かに分類されて画像データ
ベース装置13に記録されることになる。With this system configuration, the image input device 1
Various images input from the image processing device 12
By checking the characteristic amount of the image in, the image is automatically classified into the document image or the non-document image and recorded in the image database device 13.
【0028】例えば、文書画像とは図4に示される文字
を多く含む画像であり、非文書画像とは図5に示される
風景画像などである。For example, the document image is an image containing many characters shown in FIG. 4, and the non-document image is the landscape image shown in FIG.
【0029】図2および図3は、図1の制御装置121
の処理ルーチンを示すフローチャートである。2 and 3 show the controller 121 of FIG.
3 is a flowchart showing the processing routine of FIG.
【0030】図2および図3のフローチャートは、図中
Aの部分で連結しており一連の処理を示す。The flowcharts of FIGS. 2 and 3 are connected at the portion A in the figures and show a series of processes.
【0031】ステップS201において、制御装置12
1は画像入力装置11により画像データを入力し、それ
を多値画像メモリ1231に記憶する。多値画像メモリ
1231に記憶される画像データは、図6を参照してX
方向に512画素、Y方向に432画素からなるデータ
であり、1画素は“0”(黒画素)から“255”まで
の256階調(8ビット)の輝度値を持つ。画像データ
の図に対して最も左上の画素を原点(0,0)とし、X
方向に0〜511の座標を、Y方向に0〜431の座標
を付設する。In step S201, the controller 12
1 inputs image data by the image input device 11 and stores it in the multi-valued image memory 1231. The image data stored in the multi-valued image memory 1231 is X
The data consists of 512 pixels in the direction and 432 pixels in the Y direction, and one pixel has a brightness value of 256 gradations (8 bits) from “0” (black pixel) to “255”. The upper left pixel in the image data diagram is the origin (0,0), and X
The coordinates of 0 to 511 are attached to the direction, and the coordinates of 0 to 431 are attached to the Y direction.
【0032】多値画像メモリ1231は図7に示される
構成をしている。すなわち多値画像メモリ1231はX
座標、Y座標で示される各々の画素に対して256階調
の輝度値を記憶する8ビットのメモリを保有している。
メモリには原点(0,0)の画素の輝度値を先頭とし
て、X座標の増加順に画素の輝度値のデータが順次記憶
され、次にY座標を1増加した後に同様にX座標0から
X座標の増加順に輝度値のデータが記憶され、座標(5
11,431)までのすべての画素の輝度値のデータが
記憶される。The multi-valued image memory 1231 has the structure shown in FIG. That is, the multivalued image memory 1231 has X
It has an 8-bit memory for storing the brightness value of 256 gradations for each pixel indicated by the coordinate and the Y coordinate.
In the memory, the luminance value of the pixel at the origin (0, 0) is stored at the beginning, and the data of the luminance value of the pixel is sequentially stored in the increasing order of the X coordinate. The brightness value data is stored in the order of increasing coordinates, and the coordinates (5
The data of the luminance values of all the pixels up to 11, 431) are stored.
【0033】ステップS202において、制御装置12
1は多値画像メモリ1231に記憶された256階調の
輝度値を持つ画像データ(多値画像データ)の全体を2
値化する。2値化された画像データ(2値画像データ)
は2値画像メモリ1232に記憶される。In step S202, the controller 12
1 is the entire image data (multi-valued image data) stored in the multi-valued image memory 1231 and having a brightness value of 256 gradations.
Quantify. Binary image data (binary image data)
Are stored in the binary image memory 1232.
【0034】2値化は、具体的には制御装置121がメ
モリ1231の多値画像データ全体を走査し、2値化の
ための輝度のしきい値を設定した後に、しきい値以上の
輝度を持つ画素を白画素(“1”のデータ)、しきい値
未満の輝度を持つ画素を黒画素(“0”のデータ)とす
ることにより行なわれる。ここにしきい値の設定方法と
して、例えば田村秀行監修、日本工業技術センター編、
「コンピュータ画像処理入門」,総研出版,1988
年,p.66〜p.69に述べられている方法(判別分
析法、p−タイル法、モード法など)を用いることがで
きる。この実施例においては、その中の判別分析法が用
いられる。In the binarization, specifically, after the control device 121 scans the entire multi-valued image data in the memory 1231 and sets the threshold value of the brightness for the binarization, the brightness equal to or higher than the threshold value is set. This is performed by setting a pixel having a pixel as a white pixel (data of "1") and a pixel having a luminance less than the threshold value as a black pixel (data of "0"). As a threshold setting method, for example, supervision by Tamura Hideyuki, edited by Japan Industrial Technology Center,
"Introduction to Computer Image Processing", Soken Shuppan, 1988
Year, p. 66-p. 69 (discriminant analysis method, p-tile method, modal method, etc.) can be used. In this example, the discriminant analysis method therein is used.
【0035】判別分析法は、異なる輝度値を持つ画素の
集合をしきい値(th)により2つのクラス(th以上
とth未満)に分割したと仮定したとき、各々のクラス
間の分散が最大になるようにしきい値(th)を設定す
る方法である。In the discriminant analysis method, when it is assumed that a set of pixels having different brightness values is divided into two classes (greater than or equal to th and less than th) by a threshold value (th), the variance between the respective classes is maximum. The threshold value (th) is set so that
【0036】しきい値の決定後、制御装置121は多値
画像メモリ1231に記憶されている多値画像データを
原点から走査し、各画素の輝度値を読取り、設定された
しきい値と比較する。その結果当該輝度値がしきい値未
満であればその画素の輝度値は“0”(黒画素)とし
て、また当該輝度値がしきい値以上であればその画素の
輝度値は“1”(白画素)として2値画像メモリ123
2に記憶される。After the threshold value is determined, the control device 121 scans the multi-valued image data stored in the multi-valued image memory 1231 from the origin, reads the brightness value of each pixel, and compares it with the set threshold value. To do. As a result, if the brightness value is less than the threshold value, the brightness value of the pixel is “0” (black pixel), and if the brightness value is more than the threshold value, the brightness value of the pixel is “1” ( Binary image memory 123 as white pixels)
Stored in 2.
【0037】2値画像メモリ1232のアドレス構成
は、図7の多値画像メモリ1231と同じであるが、輝
度値として“0”か“1”かの1ビットのデータが記録
される点で異なる。The address configuration of the binary image memory 1232 is the same as that of the multi-valued image memory 1231 of FIG. 7, except that 1-bit data of "0" or "1" is recorded as the brightness value. .
【0038】ステップS203において、制御装置12
1は2値画像メモリ1232の2値画像データの中で白
画素の数が画素の総数の1/3より多いか判定する。Y
ESであればステップS204において、2値画像メモ
リ1232の2値画像データの“0”のデータと“1”
のデータとが反転される。In step S203, the controller 12
1 determines whether the number of white pixels in the binary image data of the binary image memory 1232 is greater than 1/3 of the total number of pixels. Y
If it is ES, in step S204, "0" data and "1" of the binary image data of the binary image memory 1232 are obtained.
The data of is inverted.
【0039】ステップS203において、NOのとき
は、ステップS204の処理は行なわれない。If NO at step S203, the process of step S204 is not performed.
【0040】ステップS203からS204の処理を行
なうのは、以下の理由による。画像データは通常は黒画
素が背景、白画素が対象物として処理されるので、例え
ば図4に示される白画素の背景に黒画素の対象物からな
る画像データが入力されたときには、画像データの白黒
を反転する必要がある。そこで画素全体の中で白画素が
1/3以上のときは、背景が白画素で対象物が黒画素で
あると判定し、白画素と黒画素とを反転させることにし
ている。The processing of steps S203 to S204 is performed for the following reason. Since image data is normally processed with black pixels as the background and white pixels as the object, for example, when image data of an object with black pixels is input to the background of white pixels shown in FIG. It is necessary to invert black and white. Therefore, when the number of white pixels is ⅓ or more in all the pixels, it is determined that the background is a white pixel and the object is a black pixel, and the white pixel and the black pixel are inverted.
【0041】ステップS205において、2値画像メモ
リ1232の2値画像データの中の白画素の連結成分が
抽出され、それぞれにラベリングが行なわれる。In step S205, the connected components of the white pixels in the binary image data of the binary image memory 1232 are extracted, and labeling is performed for each.
【0042】連結成分とは、画像データの中で白画素
(“1”のデータ)が縦、横、斜めに連続している一群
を示す。例えば画像データが図8に示されるデータであ
ったとすると縦横斜めに“1”のデータが連続している
グループとして連結成分20a〜20dの4つの連結成
分が抽出され、それぞれの連結成分を識別するためのラ
ベル番号が図9のように設定される。図9ではラベル番
号として図8の連結成分20aに“1”のデータ、連結
成分20bに“2”のデータ、連結成分20cに“3”
のデータ、連結成分20dに“4”のデータが各々設定
されている。ラベル番号のない黒画素に対してはラベル
番号の代わりに、“0”のデータが設定される。The connected component refers to a group of white pixels (data of "1") which are continuous vertically, horizontally and diagonally in the image data. For example, if the image data is the data shown in FIG. 8, four connected components of connected components 20a to 20d are extracted as a group in which data of "1" is continuous vertically and horizontally, and each connected component is identified. The label number for this is set as shown in FIG. In FIG. 9, as the label numbers, the connected component 20a in FIG. 8 is "1" data, the connected component 20b is "2" data, and the connected component 20c is "3".
And the data of "4" are set in the connected component 20d. For a black pixel having no label number, "0" data is set instead of the label number.
【0043】ラベル番号は、ラベル画像メモリ1233
に記録される。ラベル画像メモリ1233は、図10に
示されるアドレス構成をしている。すなわちアドレス構
成は、2値画像メモリ1232と同じである。各アドレ
スはそのアドレスに対応する画像に付されたラベル番号
を記憶する16ビットのメモリを備えている。各々のメ
モリのビット数はラベル番号の最大値を記憶することが
できるだけ用意する必要があるが、本実施例では16ビ
ットであれば十分であると考えられている。The label number is the label image memory 1233.
Recorded in. The label image memory 1233 has the address configuration shown in FIG. That is, the address configuration is the same as that of the binary image memory 1232. Each address has a 16-bit memory for storing the label number attached to the image corresponding to the address. It is necessary to prepare the number of bits of each memory so that the maximum value of the label number can be stored, but in the present embodiment, 16 bits is considered to be sufficient.
【0044】なお、ラベリングの方法として、例えば鳥
脇純一郎著「画像理解のためのデジタル画像処理(I
I)」昭晃堂、1988年、p.45〜p.46に述べ
られている方法を用いることができる。As a labeling method, for example, "Digital Image Processing for Image Understanding (I.
I) ”Shokoido, 1988, p. 45-p. The method described in 46 can be used.
【0045】ステップS206において、制御装置12
1はラベル番号の付された各々の連結成分のフィレ座標
および面積を抽出する。フィレ座標とは画像中の1つの
連結成分に外接する最小の矩形の左上と右下の座標であ
り、図11に示されるような連結成分があったときに
は、左上のフィレ座標は(x_sp,y_sp)であ
り、右下のフィレ座標は(x_ep,y_ep)であ
る。In step S206, the controller 12
1 extracts the fillet coordinates and area of each connected component with a label number. Fillet coordinates are the upper left and lower right coordinates of the smallest rectangle circumscribing one connected component in the image. When there are connected components as shown in FIG. 11, the upper left fillet coordinates are (x_sp, y_sp ), And the fillet coordinate at the lower right is (x_ep, y_ep).
【0046】すなわち同じラベル番号を付されている画
素のX座標,Y座標のうち最大のX座標および最大のY
座標の組が右下のフィレ座標となり、最小のX座標およ
び最小のY座標の組が左上のフィレ座標となる。That is, the maximum X coordinate and the maximum Y coordinate among the X coordinate and Y coordinate of the pixels having the same label number.
The set of coordinates is the lower right fillet coordinate, and the set of the minimum X coordinate and the minimum Y coordinate is the upper left fillet coordinate.
【0047】また、連結成分の面積とは同じラベル番号
を付されている画素数すなわち各々の連結成分の画素数
で表わされる。The area of the connected component is represented by the number of pixels having the same label number, that is, the number of pixels of each connected component.
【0048】なお、図11では説明の便宜上連結成分を
黒、背景を白で示している。各々の連結成分のフイレ座
標および面積はフィレ座標メモリ1234に記憶され
る。フィレ座標メモリ1234は、図12に示される構
成をしている。すなわちラベル番号順に左上のフィレ座
標のX座標,Y座標,右下のフィレ座標のX座標,Y座
標,および当該連結成分の面積が記録される。座標、面
積の各々を記憶するメモリは16ビットである。したが
って、1つのラベルにつき80ビットのメモリ領域を持
つ。In FIG. 11, the connected components are shown in black and the background is shown in white for convenience of explanation. The fillet coordinates and area of each connected component are stored in the fillet coordinate memory 1234. The fillet coordinate memory 1234 has the configuration shown in FIG. That is, the X coordinate and the Y coordinate of the upper left fillet coordinate, the X coordinate and the Y coordinate of the lower right fillet coordinate, and the area of the connected component are recorded in the order of label numbers. The memory for storing each of the coordinates and the area is 16 bits. Therefore, each label has a memory area of 80 bits.
【0049】ステップS207において、不要な連結成
分が除去される。不要な連結成分とは、以下に述べる連
結成分である。In step S207, unnecessary connected components are removed. The unnecessary connected component is the connected component described below.
【0050】(1) 連結成分の面積が3画素以下の微
小成分
(2) 連結成分に外接する矩形のX方向の幅が画像デ
ータの全体のX方向の幅(512画素)の8分の1より
大きい、あるいは連結成分に外接する矩形のY方向の幅
が画像データ全体のY方向の幅(432画素)の8分の
1より大きい巨大成分
(3) 連結成分に外接する矩形のX方向とY方向のい
ずれかの一方の幅が他方の幅の4倍より大きい細長成分
以上に述べた3つの連結成分は文字情報ではないと考え
られるため、2値画像メモリ1232から削除される。(1) Minute component in which the area of the connected component is 3 pixels or less (2) The width in the X direction of the rectangle circumscribing the connected component is 1/8 of the width (512 pixels) of the entire image data in the X direction. A huge component whose width in the Y direction is greater than or equal to one-eighth of the width of the entire image data in the Y direction (432 pixels) (3) A rectangle circumscribing the connected component in the X direction Slender component in which one of the widths in the Y direction is greater than four times the width of the other is considered to be not the character information and thus deleted from the binary image memory 1232.
【0051】例えば、2値画像メモリ1232に、図1
3に示されるラベル1からラベル6の6種類の連結成分
が存在しており、それに対応してフィレ座標メモリ12
34に図14に示されるデータが記録されているとす
る。このとき、ラベル2の連結成分はY方向の幅が大き
すぎるため、前述した巨大成分として除去される。For example, in the binary image memory 1232, as shown in FIG.
There are six types of connected components, labeled 1 to 6 shown in FIG. 3, and the fillet coordinate memory 12
It is assumed that the data shown in FIG. 14 is recorded in 34. At this time, since the connected component of the label 2 has a too large width in the Y direction, it is removed as the above-mentioned huge component.
【0052】ラベル4の連結成分は、面積が3画素以下
であるため微小成分として除去される。The connected component of the label 4 is removed as a minute component because its area is 3 pixels or less.
【0053】ラベル6の連結成分は、X軸方向の幅がY
軸方向の幅の4倍以上であるため細長成分として除去さ
れる。The connected component of label 6 has a width in the X-axis direction of Y.
Since it is four times or more the width in the axial direction, it is removed as an elongated component.
【0054】したがって、各々の連結成分が除去された
結果、図15に示されるように2値画像メモリ1232
には、ラベル1,3,5の連結成分が残されることにな
る。Therefore, as a result of the removal of the respective connected components, as shown in FIG.
, The connected components of labels 1, 3, and 5 are left.
【0055】ステップS208において、制御装置12
1は多値画像メモリ1231の多値画像データに空間微
分処理を施す。微分処理を施された画像(微分画像)は
微分画像メモリ1235に記録される。In step S208, the controller 12
1 performs spatial differentiation processing on the multi-valued image data in the multi-valued image memory 1231. The image subjected to the differential processing (differential image) is recorded in the differential image memory 1235.
【0056】画像の微分は、画像中の濃度の不連続性の
高い部分を検出するために行なわれるものである。Differentiation of an image is carried out to detect a portion having a high density discontinuity in the image.
【0057】画像中の濃度の不連続性の高い部分(濃度
値の変化が大きいところ)は対象物の境界(エッジ部
分)であると認識される。A portion having a high density discontinuity in the image (where the change in the density value is large) is recognized as a boundary (edge portion) of the object.
【0058】具体的な微分処理の方法は、以下のように
行なわれる。図16を参照して多値画像メモリ1231
の中の微分対象の画像の座標を(i,j)とすると、座
標(i,j)の画素と、座標(i,j)の画素に対し
て、縦横斜めに接する合計縦3×横3の画素とが微分に
用いられる画素となる。この縦3×横3の画素の各々の
輝度値に図17に示される係数が掛けられる。係数が掛
けられた後の縦3×横3のすべての輝度値をすべて足し
合わせた形をδx F(i,j)とする。A specific method of differentiating processing is performed as follows. Referring to FIG. 16, a multi-valued image memory 1231
If the coordinate of the image to be differentiated in is the coordinate (i, j), the pixel of the coordinate (i, j) and the pixel of the coordinate (i, j) are vertically and horizontally diagonally touched, and the total length is 3 × width 3 And the pixel of is the pixel used for differentiation. The luminance value of each of the vertical 3 × horizontal 3 pixels is multiplied by the coefficient shown in FIG. Let δ x F (i, j) be the sum of all the vertical 3 × horizontal 3 luminance values after being multiplied by the coefficient.
【0059】一方、縦3×横3の画素の各々の輝度値
に、図18に示される係数を掛け、係数を掛けた後の縦
3×横3のすべての輝度値をすべて足し合わせた値をδ
y F(i,j)とする。On the other hand, a value obtained by multiplying each luminance value of vertical 3 × horizontal 3 pixels by the coefficient shown in FIG. 18 and adding all the luminance values of vertical 3 × horizontal 3 after multiplying the coefficient. Δ
Let y F (i, j).
【0060】ここで微分値として、例えば|δx F
(i,j)|+|δy F(i,j)|により求められる
値を用いることができる。Here, as the differential value, for example, | δ x F
The value obtained by (i, j) | + | δ y F (i, j) | can be used.
【0061】なお、図17,図18の係数はソーベルオ
ペレータと呼ばれ、田村秀行監修、日本工業技術センタ
ー編「コンピュータ画像処理入門」、総研出版、198
8年、p.118〜p.125において開示されてい
る。微分値を求める方法としては他の方法を用いてもよ
い。The coefficients in FIGS. 17 and 18 are called Sobel operators and are supervised by Hideyuki Tamura, edited by Japan Industrial Technology Center, "Introduction to Computer Image Processing", Soken Shuppan, 198.
8 years, p. 118-p. At 125. Other methods may be used as the method of obtaining the differential value.
【0062】図17および図18のソーベルオペレータ
により、多値画像メモリ1231の中の画素が走査さ
れ、各々の画素の微分値が微分画像メモリ1235に記
録される。The pixels in the multi-valued image memory 1231 are scanned by the Sobel operator in FIGS. 17 and 18, and the differential value of each pixel is recorded in the differential image memory 1235.
【0063】なお、多値画像メモリ1231の中で、画
像データの端に当たる部分(X座標が0または511も
しくはY座標が0または431の部分)はソーベルオペ
レータを適用することができないので、例えば“0”の
データが記録される。In the multi-valued image memory 1231, the Sobel operator cannot be applied to the portion corresponding to the edge of the image data (X coordinate is 0 or 511 or Y coordinate is 0 or 431). Data of "0" is recorded.
【0064】ステップS209において、微分画像メモ
リ1235に記録された微分画像がしきい値により2値
化され、微分2値画像メモリ1236に記録される。2
値化の処理は、ステップS202で説明した方法と同様
であるのでここでの説明を省略する。In step S209, the differential image recorded in the differential image memory 1235 is binarized by a threshold value and recorded in the differential binary image memory 1236. Two
Since the value conversion process is the same as the method described in step S202, the description thereof is omitted here.
【0065】これらの処理により微分2値画像メモリ1
236には、入力画像の中で輝度値の変化が大きいとこ
ろが白画素(“1”のデータ)として記録されることに
なる。By these processes, the differential binary image memory 1
In 236, a portion of the input image where the change in the luminance value is large is recorded as a white pixel (data of “1”).
【0066】ステップS210において、2値画像メモ
リ1232の画像データと微分2値画像メモリ1236
の画像データのAND演算が行なわれ、その結果がAN
D画像メモリ1237に記録される。AND演算とは2
つの2値画像の同じ座標位置のデータがともに“1”
(白画素)である画素だけに“1”のデータを与え、そ
れ以外の画素には“0”のデータを与える演算である。
この処理により有効な連結成分の2値画像データと輝度
値の変化が大きい部分の2値画像データとの重なり領域
が“1”のデータとしてAND画像メモリ1237に記
録されることになる。In step S210, the image data in the binary image memory 1232 and the differential binary image memory 1236 are stored.
AND operation of the image data of
It is recorded in the D image memory 1237. What is AND operation 2
Data of the same coordinate position of two binary images are both "1"
This is an operation in which "1" data is given only to pixels which are (white pixels) and "0" data is given to the other pixels.
By this processing, the overlapping area of the binary image data of the effective connected component and the binary image data of the portion where the change of the luminance value is large is recorded in the AND image memory 1237 as the data of “1”.
【0067】図19は、図4の文書画像の中の1つの連
結成分が2値画像メモリ1232に記録されている状態
を示す図である。FIG. 19 is a diagram showing a state where one connected component in the document image of FIG. 4 is recorded in the binary image memory 1232.
【0068】なお、図19は説明の便宜上白画素を背景
(“0”のデータの部分)、黒画素を対象物(“1”の
データの部分)としているが、実際は白画素は対象物、
黒画素は背景として(つまり図19とは白黒反転して)
メモリに記録されている(以下図24まで同じ)。Note that, in FIG. 19, white pixels are used as a background (data portion of "0") and black pixels are objects (data portion of "1") for convenience of description.
The black pixel is used as the background (that is, the black and white is inverted from that in FIG. 19)
It is recorded in the memory (the same applies to FIG. 24 below).
【0069】図20は、図19で示されている連結成分
と同じ連結成分が微分2値画像メモリ1234に記録さ
れている状態を示す図である。図を参照すると、輝度値
の変化の大きい対象物と背景の境界部が“1”のデータ
として記録されている。FIG. 20 is a diagram showing a state in which the same connected component as the connected component shown in FIG. 19 is recorded in the differential binary image memory 1234. Referring to the figure, the boundary between the object having a large change in luminance value and the background is recorded as "1" data.
【0070】図21は、AND画像メモリ1237に記
録された状態での図19と同じ連結成分を説明するため
の図である。AND画像メモリ1237には図19の画
像と図20の画像のAND演算を行なった結果が記録さ
れることになる。FIG. 21 is a diagram for explaining the same connected component as that shown in FIG. 19 when it is recorded in the AND image memory 1237. The AND image memory 1237 stores the result of the AND operation of the image of FIG. 19 and the image of FIG.
【0071】図22から図24は、図5の風景画像の中
の1つの連結成分が各々のメモリに記録された状態を示
す図であって、図19から図21に対応した図である。22 to 24 are diagrams showing a state in which one connected component in the landscape image of FIG. 5 is recorded in each memory, and are diagrams corresponding to FIGS. 19 to 21.
【0072】風景画像と文書画像とを比較すると以下の
傾向がある。文書画像では2値画像メモリ1232に記
録される連結成分の面積に対するAND画像メモリ12
37に記憶される当該連結成分の面積の比は比較的大き
く、風景画像では2値画像メモリ1232に記憶される
連結成分の面積に対するAND画像メモリ1237に記
憶される当該連結成分の面積の比は比較的小さい。これ
は文字の連結成分はエッジ情報が多いことに基づくもの
であり、この差により入力画像が文書画像かそれ以外か
を判定することができる。There is the following tendency when comparing the landscape image and the document image. In the document image, the AND image memory 12 for the area of the connected component recorded in the binary image memory 1232
The area ratio of the connected component stored in 37 is relatively large, and the ratio of the area of the connected component stored in the AND image memory 1237 to the area of the connected component stored in the binary image memory 1232 in the landscape image is Relatively small. This is based on the fact that the connected component of characters has a lot of edge information, and it is possible to determine whether the input image is a document image or other than that by the difference.
【0073】ステップS211において、制御装置12
1はステップS207で求められた有効な連結成分の面
積全体に対するステップS210で求められたAND画
像メモリ1237の面積全体の割合edge ratioを計算す
る。edge ratioは(1)式により計算される。In step S211, the controller 12
1 calculates the ratio edge ratio of the total area of the AND image memory 1237 calculated in step S210 to the total area of the effective connected component calculated in step S207. The edge ratio is calculated by the equation (1).
【0074】
edge ratio=(Σedge area /Σbinary area )×100 …(1)
なお、(1)式においてedge areaは、AND画像メモ
リ1237に記録されている各領域の面積であり、bina
ry areaは2値画像メモリ1232に含まれている各領
域の面積である。Σはメモリ中のすべての面積を合計す
ることを示している。Edge ratio = (Σedge area / Σbinary area) × 100 (1) In the expression (1), the edge area is the area of each region recorded in the AND image memory 1237, and bina
The ry area is the area of each region included in the binary image memory 1232. Σ indicates that all areas in the memory are summed.
【0075】なお、各々の領域でedge ratioを計算し、
最後にedge ratio全体の平均を取るなどしてもよい。The edge ratio is calculated in each area,
Finally, the average of the entire edge ratio may be taken.
【0076】ステップS212において、制御装置12
1はステップS211で求められたedge ratioを設定さ
れているしきい値と比較し、edge ratioがしきい値以上
か判定する。In step S212, the controller 12
In step 1, the edge ratio obtained in step S211 is compared with the set threshold value, and it is determined whether the edge ratio is greater than or equal to the threshold value.
【0077】ステップS212でYESであれば、ステ
ップS213において当該画像データは文書画像である
と判断される。If YES in step S212, it is determined in step S213 that the image data is a document image.
【0078】ステップS212でNOであれば、ステッ
プS215において当該画像データは非文書であると判
定される。If NO in step S212, it is determined in step S215 that the image data is non-document.
【0079】このしきい値は例えば60%という値が用
いられるが、ユーザの判断により変更させることもでき
る。A value of 60%, for example, is used as the threshold value, but it may be changed according to the judgment of the user.
【0080】ステップS214において、画像は判定さ
れた文書または非文書というキーワード(属性)ととも
に画像データベース装置13に記憶される。In step S214, the image is stored in the image database device 13 together with the determined keywords (attributes) of document or non-document.
【0081】図25は、本実施例における実施結果(効
果を含む)を説明するための図である。横軸はedge rat
ioを、縦軸はedge ratioの所定の範囲に分類されるサン
プル画像の数を示す。edge ratioは5%の範囲で区切
られており、その範囲に分類される文書、非文書のサン
プル画像の数がヒストグラムとして示されている。FIG. 25 is a diagram for explaining the implementation results (including effects) in this embodiment. The horizontal axis is edge rat
io, the vertical axis represents the number of sample images classified into a predetermined range of edge ratio. The edge ratio is divided in a range of 5%, and the number of document and non-document sample images classified in the range is shown as a histogram.
【0082】グラフを参照して、文書画像はedge ratio
が60%より大きく、非文書画像はedge ratioが60%
より小さいという傾向がある。これにより第3のステッ
プS212でのしきい値として60%という値を用いる
ことで、文書画像と非文書画像の分類を行なうことが可
能であることがわかる。Referring to the graph, the document image has an edge ratio
Is greater than 60%, and non-document images have an edge ratio of 60%
Tends to be smaller. From this, it is understood that the document image and the non-document image can be classified by using the value of 60% as the threshold value in the third step S212.
【0083】以上のように、本実施例では文字領域には
エッジ情報が多いという特徴を利用して、有効な連結画
像中の微分2値画像(エッジ情報を表わす)の面積の割
合を調べることで、文字領域を多く含む文書画像と非文
書画像とを精度よく分類することができる。As described above, in the present embodiment, by utilizing the feature that the character area has a lot of edge information, the ratio of the area of the differential binary image (representing the edge information) in the effective connected image is examined. Thus, it is possible to accurately classify a document image including many character regions and a non-document image.
【0084】したがって、このような画像分類装置は画
像データベースやファクシミリ装置の入力装置として用
いることができる。例えば画像データベースの入力装置
として用いた場合は、文書と非文書を自動分類すること
により、入力された画像に対し「文書」または「非文
書」というキーワードを人手を介することなく自動的に
付与することが可能になる。Therefore, such an image classifying device can be used as an image database or an input device of a facsimile machine. For example, when used as an input device for an image database, documents and non-documents are automatically classified, and the keywords "document" or "non-document" are automatically added to the input images without human intervention. It will be possible.
【0085】また、文書画像と分類された画像にはさら
に文字認識を適用することなどにより画像中の文書から
自動的にキーワードを抽出し、付与することが可能とな
る。Further, by applying character recognition to an image classified as a document image, a keyword can be automatically extracted from the document in the image and added.
【0086】さらに本発明の画像分類装置を画像データ
ベースの入力時に用いることにより、ユーザは1つのシ
ステムに対し文書画像と非文書画像を意識することなく
入力でき、検索時には文書画像と非文書画像を個別に検
索することが可能となる。Further, by using the image classifying apparatus of the present invention when inputting the image database, the user can input the document image and the non-document image to one system without being aware, and at the time of the search, the document image and the non-document image can be input. It is possible to search individually.
【0087】さらにファクシミリ装置の入力装置として
本発明を用いることによって、入力された画像を文書、
非文書に分類することが可能となり、例えば印刷のモー
ドを自動選択することが可能となる。Further, by using the present invention as an input device of a facsimile device, an input image is a document,
It becomes possible to classify the document into non-documents, and for example, it becomes possible to automatically select a printing mode.
【0088】さらに本発明に係る画像分類装置を、文書
と写真や図などが混合している画像を領域分割した後で
それぞれの領域に対して適用することにより、各領域の
属性判定に用いることが可能である。Further, the image classification apparatus according to the present invention is used for attribute determination of each area by dividing an image in which a document, a photograph, a drawing and the like are mixed into each area and then applying the divided area to each area. Is possible.
【0089】(第2の実施例)図26は、本発明の第2
の実施例における画像分類装置の装置構成を示すブロッ
ク図である。(Second Embodiment) FIG. 26 shows a second embodiment of the present invention.
3 is a block diagram showing a device configuration of an image classification device in the embodiment of FIG.
【0090】図を参照して、本ブロック図は、図1のブ
ロック図から微分2値画像メモリ1236とAND画像
メモリ1237とを除いたものである。Referring to the figure, this block diagram is obtained by removing the differential binary image memory 1236 and the AND image memory 1237 from the block diagram of FIG.
【0091】本実施例において行なわれる基本的処理は
第1の実施例と同じであるが、文書画像データと非文書
画像データとを分類する基準として、連結成分の外接矩
形の面積とその内部の有効な連結成分の面積との比を用
いることを特徴としている。The basic processing performed in this embodiment is the same as that in the first embodiment, but the area of the circumscribed rectangle of the connected component and the inside thereof are used as a criterion for classifying the document image data and the non-document image data. It is characterized by using the ratio with the area of the effective connected component.
【0092】本実施例における画像分類装置における処
理は、以下のように行なわれる。まず、図2のステップ
S201からS207までの処理が行なわれる。この処
理は、第1の実施例で説明した処理と実質的に同一であ
るのでここでの説明を繰返さない。The processing in the image classifying apparatus in this embodiment is performed as follows. First, the processing from steps S201 to S207 in FIG. 2 is performed. Since this process is substantially the same as the process described in the first embodiment, the description thereof will not be repeated here.
【0093】ステップS207の処理が行なわれた後、
図27に示されるフローチャートの処理が行なわれる。After the processing of step S207 is performed,
The process of the flowchart shown in FIG. 27 is performed.
【0094】ステップS401において、制御装置12
1は有効な連結成分の面積とその外接矩形の面積との割
合を計算する。有効な連結成分の面積はフィレ座標メモ
リ1234から読出され、外接矩形の面積はフィレ座標
メモリ1234のフィレ座標から求められる。In step S401, the controller 12
1 calculates the ratio of the area of the effective connected component to the area of the circumscribed rectangle. The area of the effective connected component is read from the fillet coordinate memory 1234, and the area of the circumscribed rectangle is obtained from the fillet coordinate of the fillet coordinate memory 1234.
【0095】有効な連結成分の外接矩形の面積(filet
area)に対する有効な連結成分の面積(binary area)
の割合(bin ratio)は、(2)式により求められる。Area of circumscribed rectangle of effective connected component (filet
area) of the effective connected component (binary area)
The bin ratio of is calculated by the equation (2).
【0096】
bin ratio =(Σbinary area /Σfilet area)×100 …(2)
(2)式においてΣは、画像全体の和であることを示
す。Bin ratio = (Σbinary area / Σfilet area) × 100 (2) In the equation (2), Σ indicates the sum of the entire image.
【0097】なお、本実施例では有効な連結成分の面積
の合計と有効な連結成分の外接矩形の面積の合計との割
合をbin ratioとして用いることとしたが、各々の有効
な連結成分ごとにその外接矩形の面積に対する有効な連
結成分の面積の割合を求めた後、全体の平均値を取るな
どの方法を用いてもよい。In this embodiment, the ratio of the total area of the effective connected components to the total area of the circumscribed rectangles of the effective connected components is used as the bin ratio. However, for each effective connected component A method may be used in which the ratio of the area of the effective connected component to the area of the circumscribed rectangle is calculated and then the average value of the entire area is taken.
【0098】ステップS402において、制御装置12
1によりステップS401において求められたbin rati
oが予め記憶されている所定のしきい値未満であるか判
定される。所定のしきい値として例えば後述するように
55%という値が用いられるが、しきい値はユーザの判
断により任意に設定できるようにしてもよい。そのとき
ユーザによりしきい値を設定する処理ルーチンは、RO
M122に記録される。In step S402, the controller 12
Bin rati obtained in step S401 by 1
It is determined whether o is less than a predetermined threshold value stored in advance. As the predetermined threshold value, for example, a value of 55% is used as described later, but the threshold value may be arbitrarily set according to the judgment of the user. At that time, the processing routine for setting the threshold value by the user is RO
It is recorded in M122.
【0099】ステップS402でYESであれば、ステ
ップS403において入力画像は文書画像であると判断
される。If YES in step S402, the input image is determined to be a document image in step S403.
【0100】ステップS402でNOであれば、ステッ
プS404において入力画像は非文書画像であると判断
される。If NO in step S402, the input image is determined to be a non-document image in step S404.
【0101】ステップS405において、画像データ
は、文書/非文書というキーワード(属性)とともに画
像データベース装置13に記録される。In step S405, the image data is recorded in the image database device 13 together with the keywords (attributes) document / non-document.
【0102】図28は、文書画像における2値画像デー
タの例で、図29は、風景画像(非文書画像)における
2値画像データの例である。FIG. 28 shows an example of binary image data in a document image, and FIG. 29 shows an example of binary image data in a landscape image (non-document image).
【0103】図中、点線は各々の連結成分における外接
矩形を示す。また説明の便宜上、図では対象物を黒、背
景を白で示している。In the figure, the dotted line indicates the circumscribed rectangle in each connected component. For convenience of explanation, the object is shown in black and the background is shown in white in the figure.
【0104】図を参照して、文書画像は非文書画像より
も外接矩形の面積に対する有効な連結成分の面積の割合
が小さくなっている。これにより文書画像、非文書画像
を分類することができる。Referring to the figure, the ratio of the area of the effective connected component to the area of the circumscribed rectangle is smaller in the document image than in the non-document image. Thereby, the document image and the non-document image can be classified.
【0105】図30は、文書画像、非文書画像の持つbi
n ratioを説明するための図である。横軸はbin ratioを
5%刻みの範囲で区切ったものであり、縦軸は5%刻み
で区切られた各々のbin ratioの中に分類されるサンプ
ル画像の数を示す。FIG. 30 shows bi having a document image and a non-document image.
It is a figure for demonstrating n ratio. The abscissa represents the bin ratio divided by 5%, and the ordinate represents the number of sample images classified in each bin divided by 5%.
【0106】図を参照して、文書画像はbin ratioが5
5%未満であり、非文書画像はbinratioが55%以上で
ある。したがって、図27のステップS402でのしき
い値を55%とし、しきい値未満を文書画像、しきい値
以上を非文書画像と判定することにより、文書画像と非
文書画像とを分類できることがわかる。Referring to the figure, the document image has a bin ratio of 5
It is less than 5%, and the nonratio image has a bin ratio of 55% or more. Therefore, it is possible to classify the document image and the non-document image by setting the threshold value in step S402 of FIG. 27 to 55% and determining the document image below the threshold value and the non-document image above the threshold value. Recognize.
【0107】以上のように、この実施例では、線図形で
あるためその外接矩形中の連結成分の割合が小さいとい
う文字領域の特徴を利用し、外接矩形の面積に対する有
効な連結成分の面積の割合を用いることで文字領域が多
く並んでいるという文書画像の特徴をうまく抽出し、精
度よく分類することができる。As described above, in this embodiment, the characteristic of the character region that the proportion of the connected components in the circumscribed rectangle is small because it is a line figure, and the effective connected component area of the circumscribed rectangle is By using the ratio, the feature of the document image in which many character areas are arranged side by side can be extracted well and classified accurately.
【0108】また、第1および第2の実施例で用いたed
ge ratioやbin ratioを含めた複数の文字らしさを示す
特徴量を組合せて判定することによりさらに精度よく画
像データを分類することが可能である。Also, ed used in the first and second embodiments
It is possible to classify image data with higher accuracy by combining and determining a plurality of feature quantities indicating character likeness including ge ratio and bin ratio.
【0109】これは、例えば1つの画像データにおいて
edge ratioによる文書画像らしさと、bin ratioによる
文書画像らしさの各々により得点を付け、その合計得点
により画像データの分類を行なう方法や、一方の特徴量
において、しきい値の近くに判定された画像データにつ
いては他方の特徴量を用いて分類するなどの方法で実現
することが可能である。For example, in one image data
A method is used to classify image data based on the total score, which is based on the score of the document image based on the edge ratio and the document image based on the bin ratio, or the image determined near the threshold value in one feature amount. The data can be realized by a method of classifying using the other feature amount.
【0110】(第3の実施例)図31は、本発明の第3
の実施例における画像分類装置の処理を説明するための
図である。(Third Embodiment) FIG. 31 shows the third embodiment of the present invention.
FIG. 6 is a diagram for explaining the processing of the image classification device in the embodiment of FIG.
【0111】本発明における画像分類装置の装置構成
は、第1の実施例と同じであるので説明を省略する。Since the apparatus configuration of the image classification apparatus of the present invention is the same as that of the first embodiment, its explanation is omitted.
【0112】本実施例における画像分類装置において行
なわれる処理は、以下のとおりである。The processing performed in the image classifying apparatus in this embodiment is as follows.
【0113】図2のステップS201からS207の処
理が実行された後、図31の処理が行なわれる。After the processes of steps S201 to S207 of FIG. 2 are executed, the process of FIG. 31 is executed.
【0114】すなわちステップS501において、有効
な連結成分の文字らしさを示す特徴量が抽出される。特
徴量は画像中の有効な連結成分全体あるいは各々の有効
な連結成分について抽出される。また特徴量は画像全体
で1つの値を持つデータである。文字らしさを表わす特
徴量は、多値画像メモリ1231、2値画像メモリ12
32、ラベル画像メモリ1233、フィレ座標メモリ1
234の内容により求められる。That is, in step S501, the feature amount indicating the character likeness of the effective connected component is extracted. The feature amount is extracted for all effective connected components in the image or for each effective connected component. The feature amount is data having one value in the entire image. The feature amount representing the character is the multi-valued image memory 1231, the binary image memory 12
32, label image memory 1233, fillet coordinate memory 1
234 is obtained.
【0115】ステップS502において、処理装置は抽
出された特徴量と所定のしきい値とを比較する。所定の
しきい値はROMに記録するようにしてもよいし、外部
からユーザが指定できるようにしてもよい。また異なる
2以上の方法で求めた2以上の特徴量を比較に用いるよ
うにしてもよい。In step S502, the processing device compares the extracted feature amount with a predetermined threshold value. The predetermined threshold value may be recorded in the ROM or may be externally designated by the user. Further, two or more feature amounts obtained by two or more different methods may be used for comparison.
【0116】ステップS503において、比較された特
徴量と所定のしきい値とから特徴量が文字らしさを示す
条件を満たしているかが判定され、YESであればステ
ップS504において、入力画像は文書と判断される。In step S503, it is determined from the compared feature amount and the predetermined threshold value whether the feature amount satisfies the condition indicating the character-likeness. If YES, it is determined in step S504 that the input image is a document. To be done.
【0117】ステップS503において、NOであれ
ば、ステップS506において入力画像は非文書と判断
される。If NO in step S503, the input image is determined to be a non-document in step S506.
【0118】ステップS505において、入力画像は画
像データベースに記録されるがそのとき文書画像である
と判断された画像には、「文書画像」というキーワード
(属性)が、非文書であると判断された画像には「非文
書画像」というキーワードが併わせて記録される。In step S505, the input image is recorded in the image database, but the keyword (attribute) "document image" is determined to be non-document for the image determined to be the document image at that time. The keyword "non-document image" is recorded together with the image.
【0119】これにより画像データベースから画像デー
タを検索するときにはキーワードを利用し、効率のよい
検索を行なうことができる。As a result, when searching image data from the image database, keywords can be used to perform an efficient search.
【0120】(第4の実施例)図32は、本発明の第4
の実施例における画像分類装置のシステム構成を示すブ
ロック図である。(Fourth Embodiment) FIG. 32 shows a fourth embodiment of the present invention.
3 is a block diagram showing a system configuration of an image classification device in the embodiment of FIG.
【0121】図を参照して画像分類装置は、大きくはカ
メラはスキャナなどを含む画像入力のための画像入力装
置51と、入力された画像を処理することにより画像を
名刺画像、それ以外の画像に分類(キーワード付け)す
る画像処理装置52と、画像処理装置52により分類さ
れた画像を記憶する画像データベース装置53とから構
成される。各々の装置はバス15により接続されてい
る。画像処理装置52は、入力された画像を処理、分類
し、かつシステム全体の動作を制御するためのCPUな
どで構成された制御装置521と、各種プログラマブル
や定数などを記憶するROM522と、画像や処理デー
タなどを記憶するRAM523とを含む。Referring to the figure, the image classification device is roughly composed of an image input device 51 for inputting an image, which includes a scanner for a camera and the like, and an image by processing the input image as a business card image and other images. The image processing apparatus 52 that classifies (adds keywords) to, and the image database apparatus 53 that stores the images classified by the image processing apparatus 52. The respective devices are connected by a bus 15. The image processing device 52 includes a control device 521 including a CPU for processing and classifying an input image and controlling the operation of the entire system, a ROM 522 storing various programmable and constants, an image and the like. A RAM 523 that stores processing data and the like is included.
【0122】ROM522は、画像入力の処理のために
用いられる画像処理部5221と、画像を2値化するた
めに用いられる画像2値化処理部5222と、2値化さ
れた画像データの中の領域を識別するために用いられる
領域抽出処理部5223と、2値化された画像データの
中のデータの連結成分にラベリング(ラベル番号を付す
処理)を行なうラベリング処理部5224と、画像デー
タの領域の並び方の特徴を抽出する領域の並び方の特徴
抽出処理部5225と、画像の分類を行なう画像分類処
理部5226と、画像データベース装置53に画像デー
タの登録を行なう画像登録処理部5227とを含む。The ROM 522 includes an image processing unit 5221 used for image input processing, an image binarization processing unit 5222 used for binarizing an image, and binary image data among the binarized image data. A region extraction processing unit 5223 used for identifying a region, a labeling processing unit 5224 for performing labeling (processing for assigning a label number) to a connected component of data in binarized image data, and a region of image data A feature extraction processing unit 5225 for arranging regions for extracting the feature of the arrangement manner, an image classification processing unit 5226 for classifying images, and an image registration processing unit 5227 for registering image data in the image database device 53 are included.
【0123】RAM523は、入力された画像データを
256階調の画像データとして記憶する多値画像メモリ
5231と、“0”および“1”の2値で表わされる画
像データを記憶する2値画像メモリ5232と、データ
の連結成分の各々のラベル番号を記憶するラベル画像メ
モリ5233と、各々の連結成分のフィレ座標および面
積を記憶するフィレ座標メモリ5234と、有効な連結
成分の重心点の座標を記憶する重心メモリ5235と、
重心点と他の重心点との方向頻度を記憶する方向頻度ヒ
ストグラムメモリ5236と、多値画像メモリ1231
の画像データの微分画像を記憶する微分画像メモリ52
37と、微分画像の濃度をX,Y方向に投影した濃度の
ヒストグラムを記憶する濃度投影ヒストグラムメモリ5
238と、有効な連結成分数を記憶する有効な連結成分
数メモリ5239と、ヒストグラムの微分値を記憶する
ヒストグラム微分値メモリ5240とを含む。The RAM 523 is a multi-valued image memory 5231 that stores the input image data as image data of 256 gradations, and a binary image memory that stores the image data represented by the binary values "0" and "1". 5232, a label image memory 5233 that stores the label number of each connected component of the data, a fillet coordinate memory 5234 that stores the fillet coordinates and area of each connected component, and the coordinates of the centroid of the effective connected component. Center of gravity memory 5235
A direction frequency histogram memory 5236 that stores the direction frequency between the center of gravity point and another center of gravity point, and a multivalued image memory 1231
Image memory 52 for storing the differential image of the image data of
37 and a density projection histogram memory 5 for storing a density histogram obtained by projecting the density of the differential image in the X and Y directions.
238, an effective connected component number memory 5239 for storing the effective connected component number, and a histogram differential value memory 5240 for storing the differential value of the histogram.
【0124】このシステム構成により、画像入力装置5
1から入力されたさまざまな画像は画像処理装置52に
おいて画像の持つ特徴量が調べられることにより自動的
に名刺画像か否かに分類されて、画像データベース装置
53に記憶されることになる。With this system configuration, the image input device 5
The various images input from 1 are automatically classified as business card images by the feature amount of the images being checked by the image processing device 52, and are stored in the image database device 53.
【0125】本実施例での特徴量を定める基準として、
名刺画像は文字の数が少なく行間が広く開いているとい
う特徴が利用される。As a standard for defining the feature quantity in this embodiment,
The business card image uses the feature that the number of characters is small and the line spacing is wide.
【0126】図33から図35は、本実施例における制
御装置521の処理を示すフローチャートである。33 to 35 are flow charts showing the processing of the control device 521 in this embodiment.
【0127】フローチャートは、図中AまたはBの部分
で連結し一連の処理を示す。ステップS601からS6
07での処理は、図2のステップS201からS207
での処理と実質的に同一であるのでここでの説明は繰返
さない。The flow chart shows a series of processes connected by the portion A or B in the figure. Steps S601 to S6
The processing in 07 is performed from steps S201 to S207 in FIG.
Since the processing is substantially the same as the processing described in step 1, the description thereof will not be repeated here.
【0128】ステップS608において、制御装置52
1は2値画像メモリ5232中に含まれている有効な連
結成分の数を計測し、その数を有効な連結成分メモリ5
239に記録する。名刺画像は文字数が少ないため、有
効な連結成分が少ないという特徴を有する。そのため名
刺画像を判定する視標の1つとして、有効な連結成分の
数を計測するのである。At step S608, the controller 52
1 measures the number of effective connected components contained in the binary image memory 5232, and counts the number of effective connected component memories 5
Record at 239. Since the business card image has a small number of characters, it has a feature that the number of effective connected components is small. Therefore, the number of effective connected components is measured as one of the visual targets for determining the business card image.
【0129】ステップS609において、有効な連結成
分それぞれの重心点が判定され、重心メモリ5235に
記録される。In step S609, the centroid points of the respective effective connected components are determined and recorded in the centroid memory 5235.
【0130】重心座標は、フィレ座標メモリ5234に
記録されている各々の有効な連結成分についてのフイレ
座標について求められる。The barycentric coordinates are obtained for the fillet coordinates for each valid connected component recorded in the fillet coordinate memory 5234.
【0131】有効な連結成分の各々の左上のフィレ座標
を(x_sp[i],y_sp[i])、右下のフィレ
座標を(x_ep[i],y_ep[i])とすると、
重心座標grav[i]は(3)式により求められる。If the upper left fillet coordinate of each effective connected component is (x_sp [i], y_sp [i]) and the lower right fillet coordinate is (x_ep [i], y_ep [i]),
The barycentric coordinate grav [i] is calculated by the equation (3).
【0132】
grav[i]={(x_ep[i]−x_sp[i])/2,
(y_ep[i]−y_sp[i])/2} …(
3)
重心メモリ5235には、図36に示されるように有効
な連結成分のラベル番号順にそのラベルの重心点のX座
標,Y座標が記録される。Grav [i] = {(x_ep [i] −x_sp [i]) / 2, (y_ep [i] −y_sp [i]) / 2} (3) The centroid memory 5235 is shown in FIG. As shown, the X-coordinate and Y-coordinate of the center of gravity of the label are recorded in the order of the label numbers of the effective connected components.
【0133】ステップS607において除去された連結
成分に対する重心点は記録されないため、ラベル番号は
必ずしも連続でない。The barycentric points for the connected components removed in step S607 are not recorded, so the label numbers are not necessarily continuous.
【0134】また、重心点のX,Y座標を記録するメモ
リは、各々16ビットのメモリ容量を持つため、1つの
ラベルに対して32ビットのメモリ領域が確保されてい
ることになる。Further, since the memories for recording the X and Y coordinates of the center of gravity each have a memory capacity of 16 bits, a 32-bit memory area is secured for one label.
【0135】ステップS610において、制御装置52
1は、各々の重心点に最も近い他の重心点を調べ、その
方向を方向頻度ヒストグラムメモリ5236に記録す
る。In step S610, the controller 52
1 checks other centroid points closest to each centroid point and records the direction in the direction frequency histogram memory 5236.
【0136】図37は、図34のステップS610で行
なわれる重心点の処理の具体的ルーチンを示したフロー
チャートである。FIG. 37 is a flow chart showing a specific routine of the processing of the center of gravity performed in step S610 of FIG.
【0137】ステップS801において、探索範囲の大
きさ(画素単位)を表わす変数“size”の値が1と
して設定される。In step S801, the value of the variable "size" representing the size (pixel unit) of the search range is set to 1.
【0138】ステップ802において、探索範囲の矩形
幅を表わす変数“ws”の値がws=size×2の式
により設定される。At step 802, the value of the variable "ws" representing the rectangular width of the search range is set by the equation ws = size × 2.
【0139】ステップS803において、注目している
重心点を中心とする1辺wsの矩形の辺上に他の重心点
があるか否か判定される。In step S803, it is determined whether or not there is another center of gravity on the side of the rectangle of one side ws centered on the center of gravity point of interest.
【0140】ステップS804で、重心点がない(N
O)と判定されたのであれば、ステップ809におい
て、変数“size”が1インクリメントされる。In step S804, there is no center of gravity point (N
If it is determined to be O), the variable “size” is incremented by 1 in step 809.
【0141】ステップS810で、変数“size”の
値が最大しきい値であるMAX_SIZEより小さいか
判定される。MAX_SIZEは例えば100という値
が設定される。In step S810, it is determined whether the value of the variable "size" is smaller than the maximum threshold value MAX_SIZE. The value MAX_SIZE is set to 100, for example.
【0142】ステップS810でYESであれば、ステ
ップS802からの処理が繰返される。If YES in step S810, the processes from step S802 are repeated.
【0143】ステップS804でYESであれば、ステ
ップS805において中心の重心点から辺上の重心点へ
の方向が計算される。このとき矩形上に複数の重心点が
存在する場合は、すべての重心点に対して方向が計算さ
れる。方向θは、中心から矩形上の重心点への方向ベク
トルが(dx,dy)であるとすると、(4)式により
求められる。If YES at step S804, the direction from the center of gravity point at the center to the center of gravity on the side is calculated at step S805. At this time, if there are a plurality of center of gravity points on the rectangle, the directions are calculated for all the center of gravity points. The direction θ is calculated by the equation (4), assuming that the direction vector from the center to the center of gravity on the rectangle is (dx, dy).
【0144】
θ=tan-1(dx/dy) …(4)
図38は、size=3,ws=6の状態で注目してい
る重心点の右下に他の重心点が見つかった状態を示した
図である。図中の斜線部は1辺6の矩形を示している。Θ = tan −1 (dx / dy) (4) FIG. 38 shows a state in which another centroid point is found in the lower right of the centroid point of interest in the state of size = 3 and ws = 6. It is the figure shown. The shaded area in the figure indicates a rectangle with one side 6.
【0145】中心の重心点から矩形上の重心点への方向
ベクトルは、それぞれの重心点の座標の差で表され、こ
の例では(dx,dy)=(3,2)であり、θ=ta
n-1(dx/dy)≒0.98[rad]となる。The direction vector from the center of gravity point to the center of gravity on the rectangle is represented by the difference between the coordinates of the respective centers of gravity, and in this example, (dx, dy) = (3,2), and θ = ta
n −1 (dx / dy) ≈0.98 [rad].
【0146】ステップS806において、求められた方
向が量子化され、方向頻度ヒストグラムメモリ5236
に記録される。At step S806, the obtained direction is quantized and the direction frequency histogram memory 5236 is quantized.
Recorded in.
【0147】量子化の範囲は、図39に示されるとおり
であり、水平方向(X軸方向)を基準として、θが−π
/2からπ/2(rad)の間は、π/4ずつの角度を
もつ領域0から領域3までの4つの領域に分けられてい
る。求められた方向はこれらの領域の中のいずれかに分
類され記録される。例えば図38の方向ベクトルθ≒
0.98であるので、領域3に分類されることになる。The range of quantization is as shown in FIG. 39, where θ is -π with reference to the horizontal direction (X-axis direction).
The area between / 2 and π / 2 (rad) is divided into four areas 0 to 3 each having an angle of π / 4. The determined direction is classified and recorded in any of these areas. For example, the direction vector θ≈ in FIG.
Since it is 0.98, it is classified into the region 3.
【0148】なお、方向ベクトルが図39の領域に分類
されない場合(θ>π/2,θ<−π/2)は、ベクト
ルの方向を逆転させたものをカウントする。When the direction vector is not classified into the area of FIG. 39 (θ> π / 2, θ <−π / 2), the vector with the vector direction reversed is counted.
【0149】したがって、本実施例では頻度ヒストグラ
ムメモリ5236は領域0から領域3のそれぞれの方向
頻度をカウントするための4つのメモリ領域を持つ。各
々のメモリ領域は16ビット用意されている。Therefore, in the present embodiment, the frequency histogram memory 5236 has four memory areas for counting the direction frequencies of the areas 0 to 3, respectively. Each memory area has 16 bits.
【0150】ステップS807において、処理は次の重
心点へ移る。ステップS808において、すべての重心
点について最近の重心点の方向を調べたか判定され、Y
ESであれば本ルーチンを終了する。In step S807, the process proceeds to the next center of gravity point. In step S808, it is determined whether or not the directions of the recent centroid points have been checked for all the centroid points.
If it is ES, this routine is ended.
【0151】ステップS808でNOであれば、ステッ
プS801からの処理を繰返す。ステップS810でN
Oであれば、処理はステップS807へ移る。If NO in step S808, the processes from step S801 are repeated. N in step S810
If it is O, the process proceeds to step S807.
【0152】以上の処理により、方向頻度ヒストグラム
メモリ5236にすべての重心点についての最近重心点
の方向の累積頻度が記録される。By the above processing, the cumulative frequency in the direction of the closest barycentric point for all barycentric points is recorded in the direction frequency histogram memory 5236.
【0153】図34のステップS611において、制御
装置521は入力画像の文字らしい領域の間隔や数の特
徴をエッジ部分の並び方の情報から抽出するために、多
値画像メモリ5231に記憶された多値画像データに空
間微分処理を施し、1画素8ビットの微分画像を作成す
る。作成された微分画像は微分画像メモリ5237に記
憶される。微分画像の作成方法は、ソーベルオペレータ
を用いる第1の実施例と同じであるためここでの説明は
繰返さない。In step S611 of FIG. 34, the control device 521 stores the multi-valued image memory 5231 in the multi-valued image memory 5231 in order to extract the characteristics of the interval and number of character-like regions of the input image from the information on the arrangement of the edge portions. Spatial differentiation processing is performed on the image data to create a differential image of 1 pixel 8 bits. The created differential image is stored in the differential image memory 5237. The method of creating the differential image is the same as that of the first embodiment using the Sobel operator, and therefore description thereof will not be repeated here.
【0154】ステップS612において、制御装置52
1は微分画像メモリ5237に記憶された微分画像に基
づいて、X,Y軸に対して投影された濃度データである
濃度投影ヒストグラムを作成する。濃度投影ヒストグラ
ムは濃度投影ヒストグラムメモリ5238に記憶され
る。In step S612, the controller 52
1 creates a density projection histogram which is density data projected on the X and Y axes based on the differential image stored in the differential image memory 5237. The density projection histogram is stored in the density projection histogram memory 5238.
【0155】画像をある軸に投影するということは、そ
の軸に垂直な方向の直線に沿った画素の濃度を逐次足し
合わせ、その合計を求める操作を、直線の位置を平行移
動させて繰返すことであり、これにより1次元の濃度の
並び(波形)が得られる。例えば、図40に示されるよ
うな濃度がすべての部分で一定の円を想定すると、X
軸、Y軸への各々の濃度投影ヒストグラムは図示される
ように半楕円形のヒストグラムとなる。To project an image on a certain axis means to repeatedly add the densities of pixels along a straight line in a direction perpendicular to the axis and calculate the total by repeating the parallel movement of the position of the straight line. Thus, a one-dimensional density arrangement (waveform) is obtained. For example, assuming a circle whose density is constant in all parts as shown in FIG.
The density projection histograms on the axes and the Y-axis are semi-elliptical histograms as shown in the figure.
【0156】なお、図41(a)に示されるように濃度
投影ヒストグラムメモリ5238は、X軸,Y軸各座標
の順番に並んだアドレス構成を取り、各座標に対する濃
度投影値16ビットを1単位としてX座標とY座標の数
の和(この場合は512+432=944)だけのメモ
リ領域を持つ。As shown in FIG. 41A, the density projection histogram memory 5238 has an address configuration in which the X-axis and Y-axis coordinates are arranged in order, and the density projection value 16 bits for each coordinate is a unit. Has a memory area corresponding to the sum of the numbers of X and Y coordinates (in this case, 512 + 432 = 944).
【0157】画像中の文字列の数が少なければ(すなわ
ち空白部分が多ければ)、文字列の方向への濃度投影ヒ
ストグラムは変化が少なく、値が小さくなる。When the number of character strings in the image is small (that is, when there are many blank portions), the density projection histogram in the direction of the character string has little change and the value becomes small.
【0158】ステップS613において、制御装置52
1は濃度投影ヒストグラムを微分し、ヒストグラム微分
値メモリ5240に記録する。At step S613, the controller 52
1 differentiates the density projection histogram and records it in the histogram differential value memory 5240.
【0159】この処理は、濃度投影ヒストグラムの変化
を強調してわかりやすくするために行なわれる。この処
理の具体的な内容を以下に述べる。This processing is carried out in order to emphasize the change in the density projection histogram to make it easier to understand. The specific contents of this processing will be described below.
【0160】制御装置521は、濃度投影ヒストグラム
メモリ5238に記録されたX,Y軸への濃度投影ヒス
トグラムに対し、それぞれの微分値x_hist′
[x]およびy_hist′[y]を式(5)、式
(6)により計算し、ヒストグラム微分値メモリ524
0に記録する。The control device 521, with respect to the density projection histograms on the X and Y axes, recorded in the density projection histogram memory 5238, differentiates each value x_hist '.
[X] and y_hist ′ [y] are calculated by the equations (5) and (6), and the histogram differential value memory 524
Record at 0.
【0161】
x_hist′[x]=(x_hist[x+1]−x_hist[x−1
])/2 , 1≦x≦510 …(5)
y_hist′[y]=(y_hist[y+1]−y_hist[y−1
])/2 , 1≦y≦431 …(6)
ここで式中x_hist[i],y_hist[i]と
は、それぞれ座標iにおける濃度投影ヒストグラムメモ
リ5238のデータ(濃度投影値)である。X_hist '[x] = (x_hist [x + 1] -x_hist [x-1]) / 2, 1≤x≤510 (5) y_hist' [y] = (y_hist [y + 1] -y_hist [y- 1]) / 2, 1 ≦ y ≦ 431 (6) where x_hist [i] and y_hist [i] are data (density projected values) in the density projected histogram memory 5238 at the coordinate i, respectively.
【0162】図41を用いて、ステップS613の処理
を説明する。図41(b)に示されるようにヒストグラ
ム微分値メモリ5238は、X座標/Y座標各座標の順
番に並んだアドレスを取り、各座標に対する濃度投影値
の微分値16ビットを1単位としてX座標とY座標の数
の和(この場合は512+432=944)だけのメモ
リ領域を持つ。図41に示されるように、制御装置54
1は例えば濃度投影ヒストグラムメモリ5238のX=
0とX=2の内容から式(5),式(6)を用いて微分
値を計算し、ヒストグラム微分値メモリ5240のX=
1のアドレスに記録する。この計算はX軸、Y軸すべて
の値について行なわれる。なお、微分値計算には注目画
素の前後に座標が存在する必要があるので、最初と最後
の座標(ここでは座標0と511または431)につい
ては微分値は計算されない。すなわち図41(b)に示
されるように、ヒストグラム微分値メモリ5240のX
=0,X=511,Y=0,Y=431の各々のアドレ
スにはデータが記録されない。The processing in step S613 will be described with reference to FIG. As shown in FIG. 41 (b), the histogram differential value memory 5238 takes the addresses arranged in the order of the X coordinate / Y coordinate, and sets the differential value 16 bits of the density projection value for each coordinate as one unit. And the number of Y-coordinates (512 + 432 = 944 in this case). As shown in FIG. 41, the controller 54
1 is, for example, X = in the density projection histogram memory 5238.
0 and X = 2, the differential value is calculated using Equations (5) and (6), and X = of the histogram differential value memory 5240.
Record at address 1. This calculation is performed for all values on the X and Y axes. Since the differential value calculation requires that the coordinates exist before and after the pixel of interest, the differential value is not calculated for the first and last coordinates (here, coordinates 0 and 511 or 431). That is, as shown in FIG. 41B, X in the histogram differential value memory 5240
No data is recorded at the respective addresses of = 0, X = 511, Y = 0, and Y = 431.
【0163】名刺画像では一般に文字数が少ないが、文
字は1方向にきれいに整列しており、行間のスペースが
大きいという特徴がある。したがって、名刺画像は他の
画像よりも有効な連結成分数が少なく、有効な連結成分
の特定方向への並び方の集中度(重心の並び方向の特定
方向への頻度の集中度)が高く、微分濃度投影ヒストグ
ラムの平均値は小さいという傾向が生じる。これらの傾
向により入力画像が名刺画像であるか否かが判定され
る。Generally, the number of characters in a business card image is small, but the characters are well arranged in one direction and the space between lines is large. Therefore, the business card image has a smaller number of effective connected components than other images, the degree of concentration of the arrangement of the effective connected components in the specific direction is high (the degree of concentration of the frequency of the arrangement direction of the center of gravity in the specific direction), and the differential The average value of the density projection histogram tends to be small. Based on these tendencies, it is determined whether or not the input image is a business card image.
【0164】ステップS614において、ステップS6
08で記憶された有効な連結成分の数がしきい値以下で
あるか判定される。しきい値は例えば200という値が
設定され、これはROM522に記憶されている。In step S614, step S6
At 08, it is determined whether the number of valid connected components stored is less than or equal to a threshold value. The threshold value is set to a value of 200, for example, and is stored in the ROM 522.
【0165】ステップS614でYESであれば、ステ
ップS615において、重心点からその重心点に最も近
い重心点への方向の頻度がしきい値以上であるか判定さ
れる。しきい値は、例えば有効な連結成分の数に対する
方向ベクトルの最頻値の割合が50%として設定され
る。If YES in step S614, it is determined in step S615 whether the frequency of the direction from the center of gravity to the center of gravity closest to the center of gravity is greater than or equal to a threshold value. The threshold value is set such that the ratio of the mode value of the direction vector to the number of effective connected components is 50%.
【0166】ステップS615でYESであれば、ステ
ップS616においてヒストグラム微分値メモリ524
0に記録されているヒストグラムのX軸方向の平均値、
Y軸方向の平均値の値の大きい方と小さい方とがともに
しきい値以下であるか判定される。所定のしきい値は、
例えば大きい方の平均値に対して4.5×103 、小さ
い方の平均値に対して1.5×103という値が設定さ
れ、ROM522に記憶される。If YES in step S615, the histogram differential value memory 524 in step S616.
The average value of the histogram recorded in 0 in the X-axis direction,
It is determined whether the larger or smaller average value in the Y-axis direction is less than or equal to the threshold value. The predetermined threshold is
For example, a value of 4.5 × 10 3 is set for the larger average value, and a value of 1.5 × 10 3 is set for the smaller average value and stored in the ROM 522.
【0167】なお、各々のしきい値はROM522に記
憶されることとしたが、ユーザの判断によりしきい値を
自由に設定できるようにしてもよい。その場合、設定処
理ルーチンはROM522に記憶するようにすればよ
い。Although each threshold value is stored in the ROM 522, the threshold value may be freely set according to the judgment of the user. In that case, the setting processing routine may be stored in the ROM 522.
【0168】ステップS616でYESであれば、ステ
ップS617において入力画像は名刺画像であると判断
される。If YES in step S616, it is determined in step S617 that the input image is a business card image.
【0169】ステップS614,S615,S616の
いずれかでNOの場合は、ステップS619において入
力画像は名刺画像でないと判断される。If NO in any of steps S614, S615, S616, it is determined in step S619 that the input image is not a business card image.
【0170】ステップS618において、入力画像は名
刺画像であるか否かのキーワード(属性)とともに、画
像データベース装置53に記録される。In step S618, the input image is recorded in the image database device 53 together with the keyword (attribute) indicating whether it is a business card image.
【0171】これにより各画素の検索時の処理時には、
与えられた名刺という属性が利用できる。また、名刺と
判断された画像に対しては、文字認識を適用することに
より、住所録作成を行うなどの応用が可能である。As a result, at the time of processing when searching for each pixel,
You can use the attribute of the given business card. Further, by applying character recognition to an image determined to be a business card, an application such as address book creation is possible.
【0172】次に、名刺画像の微分濃度投影ヒストグラ
ムの微分値の具体的な例について説明する。Next, a specific example of the differential value of the differential density projection histogram of the business card image will be described.
【0173】図44は、名刺画像の微分濃度投影ヒスト
グラムの微分値の例を示すグラフであり、図45は、名
刺以外の文書画像の微分濃度投影ヒストグラムの微分値
の例を示すグラフである。FIG. 44 is a graph showing an example of the differential value of the differential density projection histogram of the business card image, and FIG. 45 is a graph showing an example of the differential value of the differential density projection histogram of the document image other than the business card.
【0174】図を参照して、名刺画像はX軸,Y軸に対
する濃度投影ヒストグラムの各平均値のうち大きい方が
2.26×103、小さい方が0.86×103であり、
名刺以外の文書画像はX軸,Y軸に対する濃度投影ヒス
トグラムの各平均値のうち大きい方が4.3×103、
小さい方が2.5×103である。Referring to the drawing, the business card image has a larger average value of 2.26 × 10 3 and a smaller average value of 0.86 × 10 3 among the average values of the density projection histograms for the X axis and the Y axis.
For document images other than business cards, the larger one of the average values of the density projection histograms for the X axis and the Y axis is 4.3 × 10 3 ,
The smaller one is 2.5 × 10 3 .
【0175】このように名刺画像では微分濃度投影ヒス
トグラムの微分値の平均値が他の文書画像よりも小さな
値になっていることがわかる。As described above, it can be seen that the average value of the differential values of the differential density projection histogram is smaller in the business card image than in other document images.
【0176】次に、実際の分類結果を図42に示す。図
42のグラフのX軸は入力された画像の有効な連結成分
数であり、Y軸は入力された画像の有効な連結成分の最
近重心方向の頻度割合である。Next, the actual classification result is shown in FIG. The X-axis of the graph of FIG. 42 is the number of effective connected components of the input image, and the Y-axis is the frequency ratio of the effective connected components of the input image in the direction of the nearest centroid.
【0177】図から明らかなように、名刺画像は有効な
連結成分数が小さく、最近重心方向の頻度割合が大きい
という傾向を持つ。As is clear from the figure, the business card image tends to have a small number of effective connected components and a high frequency ratio in the direction of the center of gravity.
【0178】図43のグラフは、図42のグラフで斜線
で囲まれた領域(有効な連結成分数200個以下であ
り、かつ最近重心方向の頻度割合50%以上)に含まれ
るサンプル画像についてのみをグラフ化したものであ
る。グラフのX軸は入力された画像のX軸およびY軸に
対する微分濃度投影ヒストグラムの微分値の平均値のう
ち小さい方の値であり、グラフのY軸は同じく大きい方
の値である。この例において、図43のX軸に対して
1.5×103、Y軸に対して4.5×103という値を
しきい値とすることにより名刺画像の分類が可能である
ことがわかる。The graph of FIG. 43 is only for the sample images included in the shaded area in the graph of FIG. 42 (the number of effective connected components is 200 or less and the frequency ratio in the direction of the center of gravity is 50% or more recently). Is a graph. The X axis of the graph is the smaller value of the average values of the differential values of the differential density projection histogram with respect to the X axis and Y axis of the input image, and the Y axis of the graph is the larger value. In this example, it is possible to classify the business card images by setting the threshold values of 1.5 × 10 3 for the X axis and 4.5 × 10 3 for the Y axis in FIG. Recognize.
【0179】以上のように、この実施例によると、名刺
画像の特徴を利用し、有効な連結成分画像および微分画
像の濃度投影ヒストグラムから名刺画像を精度よく分類
することができる。また、名刺画像と判断された場合に
は、住所録作成など他の用途、処理に自動的に進むなど
の応用が可能である。As described above, according to this embodiment, the characteristics of the business card image can be utilized to accurately classify the business card image from the density projection histograms of the effective connected component image and the differential image. In addition, when it is determined that the image is a business card image, other applications such as address book creation and applications such as automatically proceeding to processing are possible.
【0180】なお、本実施例には名刺画像の判定に有効
な連結成分の数、有効な連結成分から近接する他の有効
な連結成分の方向、微分濃度投影ヒストグラムの微分値
の平均という3つのデータを用いたが、この中の1ある
いは2のデータにより判別するようにしても精度は落ち
るが判別は可能である。In the present embodiment, three values, that is, the number of connected components effective for the determination of the business card image, the direction of other effective connected components that are close to the effective connected component, and the average of the differential values of the differential density projection histogram are used. Although the data is used, the determination can be made even if the determination is made by the data of 1 or 2 among them, although the accuracy is lowered.
【0181】(第5の実施例)図46は、本発明の第5
の実施例における画像分類装置の制御装置の処理を示す
フローチャートである。(Fifth Embodiment) FIG. 46 shows the fifth embodiment of the present invention.
6 is a flowchart showing the processing of the control device of the image classification device in the embodiment of FIG.
【0182】本実施例における装置構成は、図32に示
されている第4の実施例における画像分類装置の装置構
成に同じであるのでここでの説明を繰返さない。Since the device configuration of this embodiment is the same as the device configuration of the image classification device of the fourth embodiment shown in FIG. 32, the description thereof will not be repeated here.
【0183】本実施例における画像分類装置において行
なわれる処理は、以下のとおりである。The processing performed by the image classification apparatus in this embodiment is as follows.
【0184】図33のステップS601〜S607の処
理が行なわれた後、図46に示されるルーチンが実行さ
れる。After the processing of steps S601 to S607 in FIG. 33 is performed, the routine shown in FIG. 46 is executed.
【0185】ステップS608において、制御装置52
1は画像中の有効な連結成分を文字らしい領域と見な
し、名刺画像を分類するための特徴量の1つとして2値
画像メモリ5232内の有効な連結成分の数を計算し、
有効な連結成分数メモリ5239に記憶する。さらにス
テップS609において、制御装置521は2値画像メ
モリ5232内の有効な連結成分の並び方の特徴量を抽
出する。有効な連結成分の並び方の特徴量としては、例
えばこの発明の第4の実施例で述べられているような有
効な連結成分の特定方向への並び方の集中度や入力画像
の微分画像の濃度投影ヒストグラムの微分値の平均値な
ど名刺画像の性質がよく現れる特徴量が用いられる。In step S608, the controller 52
1 regards the effective connected component in the image as a character-like area, calculates the number of effective connected components in the binary image memory 5232 as one of the feature amounts for classifying the business card image,
It is stored in the effective connected component number memory 5239. Further, in step S609, the control device 521 extracts the characteristic amount of the effective arrangement of the connected components in the binary image memory 5232. The feature quantity of the arrangement of the effective connected components is, for example, the degree of concentration of the arrangement of the effective connected components in a specific direction or the density projection of the differential image of the input image as described in the fourth embodiment of the present invention. A feature amount in which the characteristics of the business card image often appear, such as the average value of the differential value of the histogram, is used.
【0186】ステップS610において、入力画像が名
刺画像かどうかを判断するために、制御装置521はま
ず有効な連結成分数がしきい値以下であるかどうかを調
べる。名刺画像では文字数が少ないため、有効な連結成
分数も少なくなる。ここで有効な連結成分数がしきい値
以下でない(ステップS610でNOの)場合は、ステ
ップS614において入力画像は名刺画像でないと判断
される。In step S610, in order to determine whether the input image is a business card image, the control device 521 first checks whether or not the number of valid connected components is less than or equal to a threshold value. Since the number of characters in the business card image is small, the number of effective connected components is also small. If the number of valid connected components is not less than or equal to the threshold value (NO in step S610), it is determined that the input image is not a business card image in step S614.
【0187】有効な連結成分数がしきい値以下(ステッ
プS610でYES)の場合は、ステップS611で続
いて有効な連結成分の並び方の特徴量を所定のしきい値
と比較する。所定のしきい値はROM522に記憶して
おいてもよいし、外部からユーザが指定できるようにし
てもよい。また比較する特徴量は単独でも複数の特徴量
の組合せでもよい。比較する特徴量に対応して所定のし
きい値も単独または複数のしきい値の組合せが用いら
れ、文書画像が満たすべきしきい値条件が設定される。
それらの処理手順はROM522に記憶される。If the number of valid connected components is less than or equal to the threshold value (YES in step S610), the feature amount of the arrangement of valid connected components is compared with a predetermined threshold value in step S611. The predetermined threshold value may be stored in the ROM 522, or may be externally designated by the user. Further, the feature quantity to be compared may be a single feature or a combination of a plurality of feature quantities. As the predetermined threshold value, a single threshold value or a combination of a plurality of threshold values is used corresponding to the feature amount to be compared, and the threshold value condition that the document image should satisfy is set.
Those processing procedures are stored in the ROM 522.
【0188】ステップS612において、制御装置52
1は特徴量と所定のしきい値との比較の結果、その入力
画像が名刺画像であるための条件を満たしているかどう
かを判断する。条件を満たしている(S612でYES
の)場合はその入力画像は名刺画像であると判断され、
そうでない(ステップS612でNOの)場合はその入
力画像は名刺画像でないと判断される。In step S612, the controller 52
As a result of the comparison between the feature amount and a predetermined threshold value 1, it is determined whether or not the input image satisfies the condition for being a business card image. The conditions are met (YES in S612)
In this case, the input image is determined to be a business card image,
Otherwise (NO in step S612), it is determined that the input image is not a business card image.
【0189】判断後ステップS615において、制御装
置521は入力画像を画像データベース装置53に登録
するが、その際に名刺画像であると判断された画像には
「名刺画像」というキーワード(属性)が付与され、入
力画像データとともに画像データベース装置53に登録
される。これにより各画像の検索時の処理時には与えら
れた名刺という属性が利用できる。In step S615 after the determination, the control device 521 registers the input image in the image database device 53, and the keyword (attribute) "business card image" is added to the image determined to be the business card image at that time. It is registered in the image database device 53 together with the input image data. As a result, the attribute of a business card that has been given can be used during the process of searching each image.
【0190】以上のように、この発明によれば、文字ら
しい領域の数とその並び方を調べて画像全体で名刺画像
が満たすべき条件に合っているかどうかを判断すること
により、文字の数が少なく行間が広く開いているという
名刺画像の特徴をうまく抽出し精度よく分類することが
できる。As described above, according to the present invention, the number of characters can be reduced by checking the number of character-like areas and the arrangement of the areas and determining whether or not the condition of the business card image is satisfied in the entire image. The feature of the business card image that the line spacing is wide open can be extracted and classified accurately.
【0191】また、名刺画像と分類された場合にはさら
に文字認識を適用することなどにより自動的に住所録を
作成するなどの応用が可能になる。Further, when classified as a business card image, it is possible to automatically create an address book by applying character recognition.
【0192】なお、本発明の実施例において入力される
画像データは多値画像データとしたが2値画像データを
入力するようにしてもよい。Although the image data input in the embodiment of the present invention is multi-valued image data, binary image data may be input.
【0193】[0193]
【発明の効果】本発明における画像分類装置は、画像を
名刺画像とそれ以外に分類することができる。The image classification device of the present invention can classify images into business card images and other images.
【0194】上記効果に加えて、さらに判定精度の高い
画像分類を行なうことができる。In addition to the above effects, it is possible to perform image classification with higher determination accuracy.
【0195】上記効果に加えて、対象物を表わす隣接し
た複数の画素のうち所定の条件を満たす画素を連結成分
として識別するので、判定精度をさらに高めることがで
きる。In addition to the above effects, a pixel satisfying a predetermined condition among a plurality of adjacent pixels representing an object is identified as a connected component, so that the determination accuracy can be further improved.
【図1】本発明の第1の実施例における画像分類装置の
システム構成を示すブロック図である。FIG. 1 is a block diagram showing a system configuration of an image classification device according to a first embodiment of the present invention.
【図2】図1の制御装置121の処理ルーチンを示すフ
ローチャートである。FIG. 2 is a flowchart showing a processing routine of a control device 121 of FIG.
【図3】図2のフローチャートに続くフローチャートで
ある。FIG. 3 is a flowchart following the flowchart of FIG.
【図4】文書画像の一例を示す図である。FIG. 4 is a diagram showing an example of a document image.
【図5】非文書画像である風景画像の一例を示す図であ
る。FIG. 5 is a diagram illustrating an example of a landscape image that is a non-document image.
【図6】多値画像メモリ1231に記憶される画像デー
タの座標系について説明するための図である。FIG. 6 is a diagram for explaining a coordinate system of image data stored in a multi-valued image memory 1231.
【図7】多値画像メモリ1231のアドレス構成を説明
するための図である。FIG. 7 is a diagram for explaining an address configuration of a multi-valued image memory 1231.
【図8】2値画像データの一例を示し、かつ連結成分に
ついて説明するための図である。FIG. 8 is a diagram showing an example of binary image data and explaining connected components.
【図9】図8の連結成分にラベリングを行なった結果を
示す図である。9 is a diagram showing the results of labeling the connected components of FIG.
【図10】ラベル画像メモリのアドレス構成を示す図で
ある。FIG. 10 is a diagram showing an address configuration of a label image memory.
【図11】フィレ座標の設定方法について説明するため
の図である。FIG. 11 is a diagram for explaining a method for setting fillet coordinates.
【図12】フィレ座標メモリ1234のアドレス構成を
示す図である。FIG. 12 is a diagram showing an address configuration of a fillet coordinate memory 1234.
【図13】連結成分の一例を示す図である。FIG. 13 is a diagram showing an example of connected components.
【図14】図13の連結成分がフィレ座標メモリに記録
されている状態を示す図である。FIG. 14 is a diagram showing a state in which the connected component of FIG. 13 is recorded in a fillet coordinate memory.
【図15】図13から不要な連結成分が除去された後の
連結成分を示す図である。15 is a diagram showing a connected component after unnecessary connected components are removed from FIG. 13. FIG.
【図16】多値画像メモリの多値画像データに空間微分
処理を施すためのデータについて説明するための図であ
る。FIG. 16 is a diagram for describing data for performing spatial differentiation processing on multivalued image data in a multivalued image memory.
【図17】微分のために用いられる係数について説明す
るための第1の図である。FIG. 17 is a first diagram illustrating a coefficient used for differentiation.
【図18】微分のために用いられる係数について説明す
るための第2の図である。FIG. 18 is a second diagram for explaining a coefficient used for differentiation.
【図19】図4の文書画像の中の1つの連結成分が2値
画像メモリ1232に記録されている状態を示す図であ
る。19 is a diagram showing a state in which one connected component in the document image of FIG. 4 is recorded in a binary image memory 1232.
【図20】図19で示されている連結成分と同じ連結成
分が微分2値画像メモリ1234に記録されている状態
を示す図である。20 is a diagram showing a state in which the same connected component as the connected component shown in FIG. 19 is recorded in a differential binary image memory 1234. FIG.
【図21】AND画像メモリ1237に記録された状態
での図19と同じ連結成分を説明するための図である。FIG. 21 is a diagram for explaining the same connected component as in FIG. 19 in a state of being recorded in the AND image memory 1237.
【図22】図5の風景画像の中の1つの連結成分が2値
画像メモリ1232に記録されている状態を示す図であ
る。22 is a diagram showing a state in which one connected component in the landscape image of FIG. 5 is recorded in a binary image memory 1232.
【図23】図21で示されている連結成分と同じ連結成
分が微分2値画像メモリ1234に記録されている状態
を示す図である。23 is a diagram showing a state in which the same connected component as the connected component shown in FIG. 21 is recorded in a differential binary image memory 1234. FIG.
【図24】AND画像メモリ1237に記録された状態
での図23と同じ連結成分を説明するための図である。FIG. 24 is a diagram for explaining the same connected component as that in FIG. 23 in a state of being recorded in the AND image memory 1237.
【図25】本発明の第1の実施例における実施結果(効
果を含む)を説明するための図である。FIG. 25 is a diagram for explaining an implementation result (including effects) in the first example of the present invention.
【図26】本発明の第2の実施例における画像分類装置
の装置構成を示すブロック図である。FIG. 26 is a block diagram showing a device configuration of an image classification device according to a second embodiment of the present invention.
【図27】第2の実施例における画像分類装置の制御装
置が行なう処理について示すフローチャートである。FIG. 27 is a flowchart showing a process performed by the control device of the image classification device in the second embodiment.
【図28】文書画像における2値画像データの一例を示
す図である。FIG. 28 is a diagram showing an example of binary image data in a document image.
【図29】風景画像(非文書画像)における2値画像デ
ータの一例を示す図である。FIG. 29 is a diagram showing an example of binary image data in a landscape image (non-document image).
【図30】文書画像、非文書画像の持つbin ratioを説
明するための図である。FIG. 30 is a diagram for explaining a bin ratio of a document image and a non-document image.
【図31】本発明の第3の実施例における画像分類装置
の処理を説明するための図である。FIG. 31 is a diagram for explaining the process of the image classification device in the third embodiment of the present invention.
【図32】本発明の第3の実施例における画像分類装置
のシステム構成を示すブロック図である。FIG. 32 is a block diagram showing a system configuration of an image classification device according to a third embodiment of the present invention.
【図33】本発明の第4の実施例における画像分類装置
の制御装置521が行なう処理を示すフローチャートで
ある。FIG. 33 is a flowchart showing a process performed by the control device 521 of the image classification device according to the fourth embodiment of the present invention.
【図34】図33に続くフローチャートである。FIG. 34 is a flowchart following FIG. 33.
【図35】図34に続くフローチャートである。FIG. 35 is a flowchart following FIG. 34.
【図36】重心メモリ5235のアドレス構成を示す図
である。FIG. 36 is a diagram showing an address configuration of a centroid memory 5235.
【図37】図34のステップS610で行なわれる重心
点の処理の具体的ルーチンを示すフローチャートであ
る。37 is a flowchart showing a specific routine of processing of a center of gravity performed in step S610 of FIG. 34.
【図38】図37の処理でsize=3,ws=6の状
態で注目している重心点の右下に他の重心点が見つかっ
た状態を示す図である。38 is a diagram showing a state in which another centroid point is found in the lower right of the centroid point of interest in the state of size = 3, ws = 6 in the process of FIG. 37. FIG.
【図39】求められた方向を量子化するための領域につ
いて説明するための図である。FIG. 39 is a diagram for explaining a region for quantizing the obtained direction.
【図40】画像データをX軸およびY軸へ濃度投影する
例について説明するための図である。FIG. 40 is a diagram for explaining an example of density projection of image data on the X axis and the Y axis.
【図41】濃度投影ヒストグラムメモリ5238および
ヒストグラム微分値メモリ5240について説明するた
めの図である。41 is a diagram for explaining the density projection histogram memory 5238 and the histogram differential value memory 5240. FIG.
【図42】本発明の第4の実施例における実施結果(効
果を含む)について説明するための図である。FIG. 42 is a diagram for explaining an implementation result (including effects) in the fourth example of the present invention.
【図43】図42の斜線部内に含まれる画像データの微
分濃度投影ヒストグラムの微分値の平均値について説明
するための図である。43 is a diagram for explaining the average value of the differential values of the differential density projection histogram of the image data included in the shaded area of FIG. 42.
【図44】名刺画像に対するX軸方向およびY軸方向の
濃度投影ヒストグラムについて説明するための図であ
る。FIG. 44 is a diagram for explaining a density projection histogram in the X-axis direction and the Y-axis direction for a business card image.
【図45】名刺画像以外の文書画像のX軸方向およびY
軸方向の濃度投影ヒストグラムについて説明するための
図である。FIG. 45 is an X-axis direction and Y of a document image other than a business card image.
It is a figure for demonstrating the density projection histogram of an axial direction.
【図46】本発明の第5の実施例における制御装置の処
理を示すフローチャートである。FIG. 46 is a flowchart showing the processing of the control device in the fifth embodiment of the present invention.
11,51 画像入力装置 12,52 画像処理装置 13,53 画像データベース装置 121,521 制御装置 122,522 ROM 123,523 RAM 1231,5231 多値画像メモリ 1232,5232 2値画像メモリ 1233,5233 ラベル画像メモリ 1234,5234 フィレ座標メモリ 1235,5237 微分画像メモリ 1236 微分2値画像メモリ 1237 AND画像メモリ 5235 重心メモリ 5236 方向頻度ヒストグラムメモリ 5238 濃度投影ヒストグラムメモリ 5239 有効な連結成分数メモリ 5240 ヒストグラム微分値メモリ 11,51 image input device 12,52 Image processing device 13,53 Image database device 121,521 control device 122,522 ROM 123,523 RAM 1231, 5231 Multi-valued image memory 1232, 5232 binary image memory 1233, 5233 Label image memory 1234, 5234 Fillet coordinate memory 1235, 5237 differential image memory 1236 differential binary image memory 1237 AND image memory 5235 Centroid memory 5236 Direction frequency histogram memory 5238 Density projection histogram memory 5239 Effective connected component number memory 5240 Histogram differential value memory
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 G06F 17/30 170 G06K 9/20 H04N 1/40 ─────────────────────────────────────────────────── ─── Continuation of front page (58) Fields surveyed (Int.Cl. 7 , DB name) G06T 7 /00-7/60 G06T 1/00 G06F 17/30 170 G06K 9/20 H04N 1/40
Claims (6)
表わす隣接した複数の画素よりなる連結成分を識別する
識別手段と、 前記連結成分の数を特徴量として計測する計測手段と、 前記計測された特徴量に基づいて、前記入力された画像
データが名刺画像か否かを判別する判別手段とを備え
た、画像分類装置。1. An identification unit for identifying a connected component composed of a plurality of adjacent pixels representing an object from input image data, a measuring unit for measuring the number of the connected components as a feature amount, and the measurement. An image classification device, comprising: a determination unit that determines whether or not the input image data is a business card image based on the obtained feature amount.
表わす隣接した複数の画素よりなる連結成分を識別する
識別手段と、 前記識別された連結成分を最隣接する2つの連結成分ご
とに分け、前記分けられた2つの連結成分ごとの並び方
向を抽出する方向抽出手段と、 前記抽出された並び方向の特定の範囲の方向への集中度
を特徴量として計測する計測手段と、 前記計測された特徴量に基づいて、前記入力された画像
データが名刺画像か否かを判別する判別手段とを備え
た、画像分類装置。2. A discriminating means for discriminating a connected component consisting of a plurality of adjacent pixels representing an object from the input image data, and dividing the discriminated connected component for every two adjacent connected components. A direction extracting unit that extracts a line-up direction for each of the two connected components that have been divided; An image classification device, comprising: a determination unit that determines whether the input image data is a business card image based on the feature amount.
タを作成する微分画像データ作成手段と、 前記微分画像データに基づいて、濃度投影ヒストグラム
を作成する濃度投影ヒストグラム作成手段と、 前記作成された濃度投影ヒストグラムから特徴量を計算
する計算手段と、 前記計算された特徴量に基づいて、前記入力された画像
データが名刺画像か否かを判別する判別手段とを備え
た、画像分類装置。3. A differential image data creating means for creating differential image data from input image data, a density projection histogram creating means for creating a density projection histogram based on the differential image data, and the created density. An image classification device comprising: a calculation unit that calculates a feature amount from a projection histogram; and a determination unit that determines whether or not the input image data is a business card image based on the calculated feature amount.
つの連結成分ごとに分け、前記分けられた2つの連結成
分ごとの並び方向を抽出する方向抽出手段と、 前記抽出された並び方向の特定の範囲の方向への集中度
を特徴量として計測する計測手段とをさらに備え、 前記特徴量は前記特定の範囲の方向への集中度を含む、
請求項1に記載の画像分類装置。4. The two nearest neighbors of the identified connected component
A direction extraction unit that divides each connected component and extracts the arrangement direction of each of the two connected components, and a measurement that measures the degree of concentration of the extracted arrangement direction in a specific range as a feature amount. Further comprising means, wherein the feature amount includes a degree of concentration in the direction of the specific range,
The image classification device according to claim 1.
データを作成する微分画像データ作成手段と、 前記微分画像データに基づいて、濃度投影ヒストグラム
を作成する濃度投影ヒストグラム作成手段と、 前記作成された濃度投影ヒストグラムの微分値に基づく
データを計算する計算手段とをさらに備え、 前記特徴量は前記濃度投影ヒストグラムの微分値に基づ
くデータを含む、請求項1または4に記載の画像分類装
置。5. A differential image data creating means for creating differential image data from the input image data, a density projection histogram creating means for creating a density projection histogram based on the differential image data, and the created The image classification apparatus according to claim 1, further comprising: a calculating unit that calculates data based on a differential value of the density projection histogram, wherein the feature amount includes data based on a differential value of the density projection histogram.
ータの中から対象物を表わす隣接した複数の画像のうち
所定の条件を満たす画素を前記連結成分として識別す
る、請求項4または5のいずれかに記載の画像分類装
置。6. The method according to claim 4, wherein the identification means identifies, from the input image data, a pixel satisfying a predetermined condition among a plurality of adjacent images representing an object as the connected component. The image classification device according to any one of the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000242126A JP3488678B2 (en) | 2000-08-10 | 2000-08-10 | Image classification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000242126A JP3488678B2 (en) | 2000-08-10 | 2000-08-10 | Image classification device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP06325282A Division JP3113785B2 (en) | 1994-12-27 | 1994-12-27 | Image classification device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001084382A JP2001084382A (en) | 2001-03-30 |
JP3488678B2 true JP3488678B2 (en) | 2004-01-19 |
Family
ID=18733190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000242126A Expired - Fee Related JP3488678B2 (en) | 2000-08-10 | 2000-08-10 | Image classification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3488678B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4843705B2 (en) * | 2009-11-20 | 2011-12-21 | 株式会社東芝 | Business card reader |
CN102831579B (en) * | 2011-06-16 | 2015-06-17 | 富士通株式会社 | Text enhancement method and device, text extraction method and device |
JP6019661B2 (en) * | 2012-03-28 | 2016-11-02 | ブラザー工業株式会社 | Image reading apparatus, image processing method, and image processing program |
JP6161484B2 (en) * | 2013-09-19 | 2017-07-12 | 株式会社Pfu | Image processing apparatus, image processing method, and computer program |
-
2000
- 2000-08-10 JP JP2000242126A patent/JP3488678B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001084382A (en) | 2001-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
USRE47889E1 (en) | System and method for segmenting text lines in documents | |
JP3308032B2 (en) | Skew correction method, skew angle detection method, skew correction device, and skew angle detection device | |
US20030152272A1 (en) | Detecting overlapping images in an automatic image segmentation device with the presence of severe bleeding | |
EP1310912A2 (en) | Image processing method, apparatus and system | |
US6704456B1 (en) | Automatic image segmentation in the presence of severe background bleeding | |
KR20010110416A (en) | Video stream classifiable symbol isolation method and system | |
JP2004318879A (en) | Automation technology of comparing image content | |
US20050139782A1 (en) | Face image detecting method, face image detecting system and face image detecting program | |
EP1583023B1 (en) | Model of documents and method for automatically classifying a document | |
JPH05225378A (en) | Area dividing system for document image | |
CA2267828A1 (en) | Multiple size reductions for image segmentation | |
CN113971792A (en) | Character recognition method, device, equipment and storage medium for traffic sign board | |
JP3606500B2 (en) | Rectangle classification method | |
CN114495141A (en) | Document paragraph position extraction method, electronic equipment and storage medium | |
CN114581928A (en) | Form identification method and system | |
JP3488678B2 (en) | Image classification device | |
JP3113785B2 (en) | Image classification device | |
JP3544324B2 (en) | CHARACTER STRING INFORMATION EXTRACTION DEVICE AND METHOD, AND RECORDING MEDIUM CONTAINING THE METHOD | |
JP3165589B2 (en) | Image classification device | |
JP3476595B2 (en) | Image area division method and image binarization method | |
JP3835652B2 (en) | Method for determining Japanese / English of document image and recording medium | |
JP4409713B2 (en) | Document image recognition apparatus and recording medium | |
JP3220226B2 (en) | Character string direction determination method | |
Awoke et al. | Ethiopic and latin multilingual text detection from images using hybrid techniques | |
JP2003271973A (en) | Method and program for image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20031014 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071031 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081031 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081031 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091031 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091031 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101031 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111031 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121031 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |