JP2008204184A - Image processor, image processing method, program and recording medium - Google Patents
Image processor, image processing method, program and recording medium Download PDFInfo
- Publication number
- JP2008204184A JP2008204184A JP2007039787A JP2007039787A JP2008204184A JP 2008204184 A JP2008204184 A JP 2008204184A JP 2007039787 A JP2007039787 A JP 2007039787A JP 2007039787 A JP2007039787 A JP 2007039787A JP 2008204184 A JP2008204184 A JP 2008204184A
- Authority
- JP
- Japan
- Prior art keywords
- image
- identifying
- document type
- feature amount
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Facsimile Image Signal Circuits (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、文書画像の文書タイプを認識および/または自動分類する画像処理装置、画像処理方法、プログラムおよび記録媒体に関し、例えば、複写機の複合機(MFP(Multi Function Printer))、ファイルサーバ、画像処理プログラムなどに好適な技術に関する。 The present invention relates to an image processing apparatus, an image processing method, a program, and a recording medium for recognizing and / or automatically classifying a document type of a document image. For example, a multifunction peripheral (MFP (Multi Function Printer)), a file server, The present invention relates to a technique suitable for an image processing program.
紙文書をスキャナなどの入力デバイスを使用して電子化する例えば電子ファイリングなどの装置があるが、専ら紙文書を大量に扱う業務用途として使用されていた。近年、スキャナの低価格化やスキャン機能を搭載したMFPの普及やe−文書法などの法制化により、オフィスでもそのハンドリングの良さや利便性が認知され、紙文書が電子化されている。一方では、電子化された文書画像データや写真画像データ、PCなどのアプリケーションによって作成された文書データなどをデータベース(以下DB)化して一元管理する画像DBの利用も増大している。例えば紙文書の原本を保存する必要があっても管理や検索のし易さから、画像DBを構築する場合もある。 There are devices such as electronic filing for digitizing paper documents using an input device such as a scanner, but they have been used exclusively for business purposes dealing with a large amount of paper documents. In recent years, due to the low price of scanners, the widespread use of MFPs equipped with scanning functions and the legislation such as the e-document method, the handling and convenience of offices have been recognized in offices, and paper documents have been digitized. On the other hand, the use of an image DB that integrates electronic document image data, photographic image data, document data created by an application such as a PC into a database (hereinafter referred to as DB), and the like, is also increasing. For example, even if it is necessary to save an original paper document, an image DB may be constructed for ease of management and retrieval.
上記した画像DBは、サーバ装置を設置して多数のユーザがアクセスする大規模なものから、個人のPC内にDBを構築するパーソナル用途まで様々であり、例えば、近年のMFPは内蔵のHDDに文書を蓄積する機能が備えられ、MFPをベースとした画像DBが構築されている。 The above-mentioned image DB varies from a large-scale one installed by a server device to be accessed by a large number of users to a personal use for constructing a DB in a personal PC. For example, recent MFPs have built-in HDDs. A function for storing documents is provided, and an image DB based on the MFP is constructed.
このような文書画像DBにおいて、大量の文書画像から所望の文書画像を検索するために検索機能を備えたものがある。文書画像における現在主流の検索機能は、OCR(Optical Character Reader)処理した文字認識結果をキーワードとして全文検索、または概念検索等を行うのが一般的である。しかし、このようなテキストベースの検索においては、
(1)OCRの精度に依存する
(2)検索キーワードが必要
(3)ヒット数が多い場合に絞り込みが困難
という問題点がある。
Some document image DBs have a search function for searching a desired document image from a large number of document images. The current mainstream search function for document images generally performs full-text search or concept search using a character recognition result obtained by OCR (Optical Character Reader) processing as a keyword. However, in such text-based searches,
(1) Depends on OCR accuracy (2) Need search keyword (3) There is a problem that it is difficult to narrow down when the number of hits is large.
上記(1)については、OCRにより100%の正解を得ることは現状では不可能であるため、入力した検索キーワードの部分にOCRのミスがあればヒットしないという問題が生じる。上記(2)については、テキストベースの検索は、例えば、インターネットのHPを検索するような未知のものを検索する場合や、そのキーワードが明らかな場合には有効性が高いが、例えば数年前に入力した記憶が曖昧な文書を検索するような場合には、適切なキーワードが思い浮かばなければ検索することができない。また、ページ全体が写真やグラフィクスで文章が存在しない場合には当然ながら検索することができない。上記(3)については、テキストベースの検索は順位付けが困難であるため、キーワードにヒットしたものは同格に扱われる。そのため、ヒット数が多い場合、ヒットした多数の文書画像を一つ一つ確認する必要があり、ユーザビリティが悪い。 With regard to (1), since it is currently impossible to obtain 100% correct answer by OCR, there is a problem that if there is an OCR mistake in the input search keyword portion, it will not hit. As for (2) above, text-based search is highly effective when searching for unknown things such as searching for HPs on the Internet, or when the keyword is clear, but for example several years ago When searching for a document with an ambiguous memory input, the search cannot be performed unless an appropriate keyword is conceived. In addition, if the entire page is a photograph or graphics and there is no text, it cannot be retrieved naturally. With regard to (3) above, it is difficult to rank the text-based search, so that a keyword hit is treated as equivalent. Therefore, when the number of hits is large, it is necessary to check a large number of hit document images one by one, resulting in poor usability.
そこで、テキストベース検索の問題を改善する手法として、テキストベース検索と異なるアプローチによる検索手法がある。この検索手法は、文書画像を複数のカテゴリに分類して徐々に文書画像を絞り込む手法であり、あるいは付与されたカテゴリ属性とテキストベースの検索との連携により画像を検索する、文書画像分類(文書画像の属性付与)という方法である。 Therefore, as a technique for improving the problem of the text-based search, there is a search technique based on an approach different from the text-based search. This search method is a method of classifying document images into a plurality of categories and gradually narrowing down the document images, or a document image classification (document that searches for images by cooperation between a given category attribute and text-based search) Image attribute assignment).
文書画像分類は、例えばユーザが文書画像を登録する際に、所望の文書カテゴリ属性を付与し、ユーザの分類体系に基づいて文書画像を分類する。この分類方法は、個々のユーザにとって理想的な分類カテゴリを得る方法であるが、多量の文書画像を登録する際の処理が煩雑であり、またユーザの作業負担が大きいことから、専門のオペレータが作業を行う場合を除いては一般的ではない。 In the document image classification, for example, when a user registers a document image, a desired document category attribute is given, and the document image is classified based on a user classification system. This classification method is a method for obtaining an ideal classification category for each user. However, since a process for registering a large number of document images is complicated and a user's work load is large, a specialized operator is required. It is not common except when performing work.
例えば、MFPのスキャン機能を使用し、スキャンした文書にカテゴリ属性を付与する場合に、MFPの操作パネル上で行うが、一文書毎にスキャニング作業を中断し、カテゴリ名を入力しなければならず作業効率が悪い。別な方法として、全ての文書をスキャニングした後、各々の文書にカテゴリ属性を付与する方法もあるが、それぞれの文書を確認する必要があり、ユーザの作業負担が大きい。 For example, when a category attribute is assigned to a scanned document using the scanning function of the MFP, it is performed on the operation panel of the MFP, but the scanning operation must be interrupted for each document and a category name must be input. Work efficiency is poor. As another method, there is a method of assigning a category attribute to each document after scanning all the documents. However, it is necessary to check each document, and the work burden on the user is large.
このような問題を解決する手段として、文書画像を自動分類する技術がある。文書画像の自動分類は、ユーザの理想的な分類カテゴリが得られ難いが、ユーザの負担が大幅に軽減され、またテキストベース検索の問題が解決できることから、文書画像の検索手法として有効な手段である。 As means for solving such a problem, there is a technique for automatically classifying document images. Although automatic classification of document images is difficult to obtain the ideal classification category for users, it is an effective means of searching for document images because it greatly reduces the burden on users and solves the problem of text-based search. is there.
文書画像の自動分類(もしくは文書画像への自動属性付与)の技術としては、例えば特許文献1がある。特許文献1では、スキャンされた文書画像を、属性の等しい矩形領域に分割し、各領域の属性を判定するレイアウト解析処理を行い、レイアウトの特徴(各ブロックの属性、その大きさ等)を認識することで、文書画像を、表や帳票文書、写真文書、及びその他の文書の何れかの文書に自動分類する。
As a technique for automatic classification of document images (or automatic attribute assignment to document images), for example, there is
また、他の例として特許文献2がある。特許文献2では、入力文書画像を圧縮し2値の圧縮画像とし、2値の圧縮画像の黒画素連結成分に外接する矩形を抽出し、その矩形を文字矩形とそれ以外の矩形に分類し、それぞれの矩形の統合により文字領域やその他の領域を抽出して属性の等しい領域を、文章領域、表領域、罫線、図領域、写真領域等の矩形領域に分割してレイアウト解析を行い、これらの領域の種類と数に関する情報を属性として文書画像を分類する。
Another example is
しかし、上記したレイアウト解析処理による文書画像の自動分類手法には、以下のような問題がある。
(1)カギ形のように領域の形状が複雑である場合や、領域が重なり合って込み入っている場合など、領域を精度よく抽出することが難しい。
(2)領域属性を誤って識別(分類、属性判定)した場合の回復手段がない。
However, the document image automatic classification method based on the layout analysis process described above has the following problems.
(1) It is difficult to extract a region with high accuracy when the shape of the region is complicated, such as a key shape, or when the regions overlap each other.
(2) There is no recovery means when an area attribute is mistakenly identified (classification, attribute determination).
つまり、上記従来技術のように、レイアウト解析による矩形領域情報を基に文書画像を自動分類する手法は、上記したような誤った識別(分類判定)が避けられない。 That is, as in the prior art described above, the method of automatically classifying document images based on rectangular area information obtained by layout analysis cannot avoid the erroneous identification (classification determination) as described above.
例えば、「帳票」カテゴリに分類されるべき文書画像が入力され、文書画像の表領域が図領域として誤って識別された場合、文書画像を正しく「帳票」として分類することができない。また、チラシ等のように込み入ったレイアウトに対して、正しく領域を判定できない場合には、領域の形状を誤って識別するだけではなく、領域の属性も誤って判定し、その結果、文書画像を誤って分類することになる。このように誤分類された文書画像を検索しても正しい検索結果が得られず、また検索に時間がかかり、検索効率が悪化する。 For example, when a document image to be classified into the “form” category is input and the table area of the document image is mistakenly identified as a figure area, the document image cannot be correctly classified as “form”. In addition, when the area cannot be correctly determined for a complicated layout such as a flyer, not only the area shape is erroneously identified, but also the area attribute is erroneously determined. It will be classified incorrectly. Even if a document image that has been misclassified in this way is searched, a correct search result cannot be obtained, and the search takes time and the search efficiency deteriorates.
上記した手法では、特に表や図形等に使用されている線画を主体とした領域を誤って判定する。一般的に罫線の判定は、前掲した特許文献2のように、2値化した画像の黒画素連結成分(黒ラン)の長さによって判定する方法を用いているが、この方法では、スキャン画像の2値化時に線が途切れることにより、誤判定を引き起こし、精度に問題がある。また、属性の等しい画像領域を一つのまとまった領域として検出する場合の一般的な手法では、前掲した特許文献2のように、領域の外接矩形を検出するために、同一画像を複数回走査しなければならず、一回の走査による処理、つまり例えば画像を左上からラスタ走査するに従って処理が進み、画像の右下に達すると処理が終了するような処理が難しく、処理時間がかかり、複雑な処理を必要とする。また文書画像毎に処理時間が異なるため、処理時間の予測が難しい。
In the method described above, an area mainly composed of a line drawing used for a table or a figure is erroneously determined. Generally, the ruled line is determined by using a method of determining by the length of a black pixel connected component (black run) of a binarized image as in
本発明は上記した問題点に鑑みてなされたもので、
本発明の目的は、処理時間を短縮すると共に、処理を簡単化しつつ、画像の文書タイプを高精度に識別し、自動的に分類する画像処理装置、画像処理方法、プログラムおよび記録媒体を提供することにある。
The present invention has been made in view of the above problems,
An object of the present invention is to provide an image processing apparatus, an image processing method, a program, and a recording medium that can identify a document type of an image with high accuracy and automatically classify it while shortening the processing time and simplifying the processing. There is.
本発明は、画像の文書タイプを識別する画像処理装置であって、前記画像の所定領域の画素を参照して、線画領域か否かを識別する局所領域識別手段と、前記局所領域識別手段により識別された線画識別結果から特徴量を算出する特徴量算出手段と、前記特徴量に応じて前記画像の文書タイプを識別する文書タイプ識別手段を備えたことを最も主要な特徴とする。 The present invention is an image processing apparatus for identifying a document type of an image, comprising: referring to pixels in a predetermined region of the image; a local region identifying unit that identifies whether or not the image is a line drawing region; and the local region identifying unit The main features include a feature amount calculating unit that calculates a feature amount from the identified line drawing identification result and a document type identifying unit that identifies the document type of the image according to the feature amount.
(1)スキャン画像のようなビットマップ画像の文書タイプを識別する画像処理装置、方法において、局所領域毎に線画か否かを識別し、局所領域識別結果から特徴量を算出し、算出された特徴量に基づいて文書タイプを識別し文書分類を行うので、複雑なレイアウト形状を持つ文書画像においても、精度良く文書タイプの識別が可能であり、レイアウト解析の領域識別のように画像を複数回走査する必要がなく、一度の走査で実現できるため、処理コスト(処理時間が短縮され、複雑な処理を必要としない)を低減することができ、かつ処理時間を予測しやすく使い勝手の良い処理を実現できる。
(2)局所領域毎に線画/文字を識別するように構成し、特徴量の次元を増やしているため、識別の精度が向上する。
(3)局所領域毎に線画/文字/写真を識別するように構成し、特徴量の次元を増やしているため、識別の精度が向上すると共に写真を含む文書タイプのカテゴリを識別できる。
(4)周波数変換を行うことによって、線画等の局所領域を識別する際に特定の周波数係数へ電力を集中させることが可能となり局所領域の識別精度が向上する。
(5)文書タイプ属性を識別する際に、複数の識別手段を並列に使用して識別結果に重複を許すことにより識別の精度が向上するとともに、ユーザの主観が異なるような画像を検索する場合にも文書タイプ識別を用いた分類表示によって検索が可能となる。
(1) In an image processing apparatus and method for identifying a document type of a bitmap image such as a scanned image, whether or not the image is a line drawing for each local area, and a feature amount is calculated from the local area identification result Since document types are identified and document classification is performed based on feature quantities, it is possible to identify document types with high accuracy even for document images with complex layout shapes. Since there is no need to scan, it can be realized by a single scan, so it is possible to reduce processing costs (processing time is shortened and complex processing is not required), and processing time is easy to predict and easy to use. realizable.
(2) Since the line drawing / character is identified for each local area and the dimension of the feature amount is increased, the identification accuracy is improved.
(3) Since the line drawing / character / photo is identified for each local area and the dimension of the feature amount is increased, the accuracy of identification is improved and the category of the document type including the photo can be identified.
(4) By performing frequency conversion, it is possible to concentrate power on a specific frequency coefficient when identifying a local area such as a line drawing, and the identification accuracy of the local area is improved.
(5) When recognizing document type attributes, a plurality of identifying means are used in parallel to allow duplication of identification results, thereby improving identification accuracy and searching for an image with different user subjectivity. In addition, the search can be performed by the classification display using the document type identification.
以下、発明の実施の形態について図面により詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
実施例1:
図1は、本発明の実施例1のシステム構成を示す。図1において、100はパーソナルコンピュータ(以下PC)、PDAや携帯電話などのモバイル端末などのクライアント装置である。101はモニタなどの表示デバイス、102はユーザ指示の解釈、サーバ装置110との通信、表示デバイス101の制御を行うアプリケーションプログラム、103はユーザからの指示入力手段であるキーボードやマウスなどの入力デバイス、104はLANやインターネットなどの外部通信路である。
Example 1:
FIG. 1 shows a system configuration of
110は画像データを蓄積するデータベース(以下DB)を有し、入力された画像データの文書タイプを識別し、DBへ文書画像およびその属性情報を登録し、クライアント装置100からのコマンドに応じて表示画面を生成してクライアント装置100へ出力するサーバ装置、111は外部通信路104とのインターフェース(以下I/F)、112は画像DB114へ登録する登録画像データ、113は登録画像112を所定サイズ以下に変倍してサムネイル画像を生成するサムネイル生成処理部、114は登録画像112の画像データ、登録画像112のサムネイル画像データを蓄積する画像DB、115は登録画像112の画像データについて文書タイプを識別する文書タイプ識別処理部、117は画像DB114へ登録されている画像データ毎の情報を蓄積する画像情報DBである。ここで情報とは、例えば、登録画像データのファイル名、作成日、画像データとの紐付け情報(紐付け情報とは例えば、画像DB114に蓄積されるとき、各画像データ固有に付されたIDやファイル名など)、文書タイプ(属性)などを言う。
110 has a database (hereinafter referred to as DB) for storing image data, identifies the document type of the input image data, registers the document image and its attribute information in the DB, and displays them in accordance with commands from the
118はクライアント装置100へ表示するための表示画面を生成し、かつ画面制御データ120の内容に応じて表示画面を制御する表示画面制御処理部、119はクライアント装置100の表示デバイス101上へ表示するための表示画面データ、120はクライアント装置100によって指定され、入力される画面制御データである。図中の点線は、画像登録時のデータの流れを表し、実線は表示画面の生成時のデータの流れを表している。
A display screen
図2は、サーバ装置110/クライアント100装置の構成を示す。図2において、201はプログラムに応じた演算や処理を行うCPU、202はプログラムのコードや画像の符号データなどのデータを一時的に記憶、保持するワーク領域として使用される揮発性のメモリ、203は画像データやプログラムなどを保存、蓄積するためのハードディスク(以下HDD)であり、画像DB114、画像情報DB117を保持する。204はモニタ205へ表示するためのデータバッファであるビデオメモリである。ビデオメモリ204に書き込まれた画像データは、定期的にモニタ205へ表示される。206はマウスやキーボードなどの入力デバイス、207はインターネットやLANなどの外部通信路104を介してデータを送受信する外部I/F、208は各々の構成要素を接続するバスである。
FIG. 2 shows the configuration of the
本実施例では、サーバ装置110がサーバコンピュータにより構成され、表示画面生成などの処理がソフトウェによって実現する例を示す。すなわち、サーバ内の処理は図示しないアプリケーションプログラムによって実現される。本発明の実施形態はこれに限定されず、MFPなどの装置内にハードウェアによって処理を行うように構成しても良いし、また、サーバ、クライアント構成を採らずに、例えば1つのPCやMFPなどの機器内に、図1を構成するようにしても良い。
In the present embodiment, an example in which the
以下、本実施例の動作概要を説明する。実施例1のシステムは、大別すると二つの動作に分かれている。一つは文書画像の登録動作であり、他の一つは所望の文書画像を検索し、閲覧し、取得(サーバからのダウンロード)する「DB内の文書画像を利用する」動作である。文書画像の利用においては、まず所望の文書画像を検索し、その後、アプリケーションのビューアーを使用して画像を閲覧し、ユーザのPC内へ蓄積する。以下、本実施例の文書画像登録時の動作と、文書画像の検索動作を説明する。 Hereinafter, an outline of the operation of this embodiment will be described. The system according to the first embodiment is roughly divided into two operations. One is an operation for registering a document image, and the other is an operation of “using a document image in a DB” for searching, browsing, and acquiring (downloading from a server) a desired document image. In using a document image, a desired document image is first searched, and then the image is viewed using an application viewer and stored in the user's PC. Hereinafter, an operation at the time of document image registration and a document image search operation according to the present embodiment will be described.
図3は、文書画像登録時の動作フローチャートを示す。図1(破線は登録時の動作を示す)、図3を参照して文書画像登録動作を説明する。 FIG. 3 shows an operation flowchart when registering a document image. The document image registration operation will be described with reference to FIG. 1 (broken lines indicate the operation during registration) and FIG.
ステップS001において、ユーザは、クライアント装置100からアプリケーションプログラム102を介してサーバ装置110へ画像データの登録の指示と登録する登録画像データ112を指示する。
In step S001, the user instructs the
ステップS002において、登録画像データ112は、外部通信路104を介してサーバ装置110へファイル名、作成日等のファイル情報と共に入力され、外部I/F111を経由して画像DB114へID番号が付与されて登録される。同時に、サムネイル生成処理部113は登録画像112を変倍処理して所定サイズ以下のサムネイル画像を生成し、画像DB114へID番号を付与して登録する。登録画像データ112が複数ページの画像データの場合には、ページ単位でサムネイルを生成する。
In step S002, the registered
ステップS003において、登録画像データ112は、後述する文書タイプ識別処理部115へ入力され、文書タイプ属性が識別される。識別された文書タイプ属性は、以下の画像情報データと共に画像情報DB117へ登録される。
・ファイル名、作成日
・画像データID
・サムネイル画像データID
・文書タイプ属性
なお、画像情報DB117は、一般的なRDB(リレーショナルデータベース)を使用することにより、情報の登録、管理、検索などの処理を簡易に実現できる。また、画像DB114、画像情報DB117は上述の機能を満たせば、同じDBに例えばXML(eXtensible Markup Langage)などの言語を使用し、階層的なデータ構造などを構築して蓄積しても良く、また、異なるサーバ毎にそれぞれDBとして蓄積してもよい。画像登録は、スキャナやデジタルカメラなどの画像入力装置から直接、画像データをサーバ装置110へ登録するようにしても良い。
In step S003, the registered
・ File name, creation date ・ Image data ID
・ Thumbnail image data ID
Document Type Attribute Note that the
図4は、実施例1の文書タイプ識別処理部115の構成を示す。301は、入力された登録画像112に対して、後段処理の処理量(処理コスト)を低減し、局所領域識別処理部303の精度を向上するための画像処理を行う前処理部である。例えば、画素数を減らして処理コストを低減する処理としては、カラー画像のグレー画像への変換処理、縮小変倍処理等があり、精度向上の処理としては、画像のトーンカーブを補正するγ補正処理、例えばデバイス固有の色空間を標準色空間へ変換を行う色補正処理、画像のMTFを補正する空間フィルタ処理、所定の解像度への変換処理(変倍処理と同様)等がある。
FIG. 4 illustrates a configuration of the document type
302は、複数の画素を実空間から周波数空間へ変換する周波数変換処理部である。画像の周波数変換処理は、離散フーリエ変換(DFT)、離散コサイン(DCT)、離散ウェーブレット変換(DWT)等種々の方法があるが、本実施例では一例としてJPEG圧縮等で使用されている離散コサイン変換(以下DCT)を縦横8画素の64画素単位に行うものとする。DCTは式1により実現される。
A frequency
u,v=0,1,〜N−1:ブロック内DCT係数座標
x,y=0,1,〜N−1:ブロック内画素座
f(x,y)=入力画素値
F(u,v)=DCT係数値
303は、周波数変換処理部302から出力されるDCT係数を基にして、線画か否かを識別する局所領域識別処理部、304は、線画の識別結果(オン/オフ)により構成される識別結果画像、305は、線画の識別結果画像304から特徴量を算出する特徴量算出処理部、306は、特徴量算出処理部305で算出された特徴量に基づいて登録画像112の文書タイプ属性を識別するタイプ属性識別処理部、307は、識別された文書タイプ属性情報である。
登録画像112に対して、前処理部301は所定の前処理を行う。本実施例では、一例として(1)処理コスト低減のために、入力画像がカラー画像の場合、グレー画像へ変換するグレー画像変換処理を行い、(2)処理コスト低減と後段の局所領域識別処理の精度向上のための解像度変換処理が行われる。
(1)グレー画像変換処理は、カラー画像が入力された場合、画像データ量を1/3に低減する処理であり、処理コストが低減される。変換方法は種々の方法があるが、入力される登録画像112がR(ed)G(reen)B(lue)画像の場合は、輝度Yへ変換する。RGBから輝度Yへの変換式は、式2で表される。
Y=0.299R+0.587G+0.114B 式2
但し、Y:輝度
R:Red画素値
G:Green画素値
B:Blue画素値
なお、簡易的に式3を使用しても良い。
Y=(R+2G+B)/4 式3
(2)解像度変換処理は、周波数変換処理部302が行う周波数変換時に出力される周波数変換係数(DCT係数)の周波数を統一する目的で実施する。本実施例で示すように、8x8画素の領域固定で周波数変換を行う場合、登録画像112の解像度が異なる場合に、出力される空間周波数も異なるものになるため、予め前処理部301において周波数変換処理部302へ入力される画像解像度を統一することにより、全体として処理コストが低減される。なお、解像度変換を実施しなくても周波数変換処理部302で登録画像112の解像度に応じて周波数変換に使用する領域面積(画素数)を変更しても同様の効果が得られる。
The
(1) The gray image conversion process is a process of reducing the image data amount to 1/3 when a color image is input, and the processing cost is reduced. There are various conversion methods. If the input registered
Y = 0.299R + 0.587G + 0.114
However, Y: Luminance R: Red pixel value G: Green pixel value B: Blue pixel value In addition, you may use
Y = (R + 2G + B) / 4
(2) The resolution conversion process is performed for the purpose of unifying the frequencies of the frequency conversion coefficients (DCT coefficients) output during the frequency conversion performed by the frequency
また、解像度は周波数変換に使用する領域面積に応じて決定することが望ましい。本実施例では、8x8画素分の領域面積において、線画を文字と区別して抽出する必要がある。このため、解像度が高すぎると文字の辺や棒部分を線画として誤識別する可能性が高くなり、逆に、解像度が低すぎると、例えば表部分等の線画と文字部分が結合してしまうため、線画を誤識別する可能性が高くなる。 The resolution is preferably determined according to the area of the area used for frequency conversion. In the present embodiment, it is necessary to extract the line drawing separately from the characters in the area area of 8 × 8 pixels. For this reason, if the resolution is too high, there is a high possibility of misidentifying the side or bar of the character as a line drawing. Conversely, if the resolution is too low, for example, a line drawing such as a table portion and the character portion are combined. This increases the possibility of misidentifying line drawings.
また、解像度変換処理、いわゆる画像の拡大、縮小処理についても、ニアレストネイバー法、線形補間法、キュービックコンボリューション法等種々の方法があるが、特に画像を縮小する場合は、細線画像が途切れたりしないように間引き処理を行わない、線形補間法等が好適である。線形補間法は画像のMTFが落ちるので、解像度変換実施後に空間フィルタ処理等でMTF補正を行っても良い。 There are various methods for resolution conversion processing, so-called image enlargement / reduction processing, such as nearest neighbor method, linear interpolation method, cubic convolution method, etc. For example, a linear interpolation method that does not perform a thinning process is preferable. In the linear interpolation method, the MTF of the image is lowered. Therefore, MTF correction may be performed by spatial filter processing or the like after the resolution conversion.
次に、周波数変換処理部302において、縦横8画素の計64画素を使用して、式1に示すようなDCTを行い、64個のDCT変換係数を出力する。局所領域識別処理部308では、DCT係数から、8x8画素領域が線画か否かを識別する。
Next, the frequency
DCT係数を使用した局所領域識別手法について、以下説明する。図5は、式1のDCT係数であるF(u,v)を2次元上に配置した図であり、縦線、横線、斜め線が入力された場合の、DCT係数の電力が集中する主な係数を黒で塗りつぶして示す。座標(0,0)は、直流(DC)成分を表す。
A local region identification method using DCT coefficients will be described below. FIG. 5 is a diagram in which F (u, v), which is the DCT coefficient of
図5(a)は、縦線画像が入力された場合に集中するDCT係数であり、便宜上、縦線成分とする。図5(b)は、横線画像に対応し横線成分、図5(c)は、斜め線画像に対応し斜め線成分とする。各図のDC成分以外の白塗り部分を各々、非縦線、非横線、非斜め線成分とする。 FIG. 5A shows DCT coefficients that are concentrated when a vertical line image is input, and a vertical line component is used for convenience. 5B corresponds to a horizontal line image corresponding to the horizontal line image, and FIG. 5C corresponds to a diagonal line component corresponding to the diagonal line image. The white portions other than the DC component in each figure are non-vertical lines, non-horizontal lines, and non-diagonal line components, respectively.
図5に示すように、DCT係数は、入力画像に対して電力の集中する係数がほぼ予想できる性質を有し、非線成分は低い値を示す。このような性質を使って、DCT係数から線画とそれ以外を識別することが可能となる。 As shown in FIG. 5, the DCT coefficient has a property that a coefficient at which power is concentrated with respect to the input image can be almost predicted, and the non-linear component shows a low value. By using such a property, it becomes possible to distinguish a line drawing from the rest from the DCT coefficient.
具体的には、図13のフローチャートに示すように、各線成分、非線成分に対する「DCT係数の絶対値」の合計値、または最大値を予め算出し、縦、横、斜め線各々で線成分、非線成分の差を所定値と比較して(ステップ21〜23)、その差が所定値以上のとき、線画と識別する。
Specifically, as shown in the flowchart of FIG. 13, a total value or maximum value of “absolute value of DCT coefficient” for each line component and non-line component is calculated in advance, and the line component is calculated for each of the vertical, horizontal, and diagonal lines. The non-linear component difference is compared with a predetermined value (
また、他の方法として、サポート・ベクタ・マシン(以下SVM)等の学習機械を使用して、DC成分以外の交流(AC)成分の絶対値を特徴量として入力し、予め線画から算出されるDCT係数を学習させたモデルを使用することによって線画とそれ以外を識別する。なお、このような性質は他の周波数変換方法でも同様の性質を示す。例えば、周波数変換処理にDWTを使用し、DWT係数を使用して局所領域識別を行っても同様の識別が可能である。 As another method, a learning machine such as a support vector machine (hereinafter referred to as SVM) is used to input an absolute value of an alternating current (AC) component other than a DC component as a feature amount, and is calculated from a line drawing in advance. A line drawing and the others are discriminated by using a model in which DCT coefficients are learned. Such a property shows the same property in other frequency conversion methods. For example, the same identification can be performed by using DWT for frequency conversion processing and performing local region identification using a DWT coefficient.
図6(a)は帳票の登録画像112を示し、(b)は登録画像112に対する線画識別結果画像(局所領域識別結果)304を示す。図6(b)では、線画部分を黒、それ以外の部分を白の2値画像として表した。また、図6は、入力画像を縦横8画素のDCTを行った矩形領域単位に、局所領域識別を行った例を示す。従って、識別結果の画像は、周波数変換処理部302に入力される画像と比較して、縦横1/8のサイズである。
FIG. 6A shows a
このように、矩形領域の複数画素により周波数変換処理を使用した局所領域識別を行う場合に、識別単位を矩形単位で行うか、画素単位で行うかは求める精度によって異なる。本実施例のように、矩形領域単位に処理を行えば、処理量が大幅に低減され処理コストを下げることができるが、画素単位に識別する処理(つまり、DCTを行う画素をオーバーラップさせて注目画素単位にDCTを行い、画素単位に識別結果を出力する。線画識別結果画像304は、周波数変換処理部302に入力された画像と等しい大きさになる)と比較して精度が低い。
As described above, when local region identification using frequency conversion processing is performed using a plurality of pixels in a rectangular region, whether the identification unit is performed in a rectangular unit or a pixel unit differs depending on the accuracy to be obtained. If processing is performed in units of rectangular areas as in this embodiment, the amount of processing can be greatly reduced and processing costs can be reduced, but processing for identifying in units of pixels (that is, by overlapping pixels for DCT). DCT is performed for each pixel of interest, and the identification result is output for each pixel.The line drawing
次いで、特徴量算出処理部305は、線画識別結果画像304から特徴量を算出する。画像特徴量としては、画像のモーメントやテクスチャ、エッジ量などがあり、また、算出手法として、画像をいくつかの領域に区切って各々の領域毎に特徴量を算出する。画像の配置情報を特徴量とすることも可能である。
Next, the feature amount
本実施例では、高次局所自己相関特徴量を使用した例を示す。2値画像に対して、高次局所自己相関特徴量を使用する場合、図7に示す25種類の3×3の局所パターンに対して、各々のパターン毎に特徴量が算出される。つまり、25次元の特徴量が算出される。各特徴量の計算は、局所パターンの対応する画素値の積(図7のパターンの“1”に対応する画素の積であり、2値画像の場合、局所パターンの“1”に対応する画素の論理積となる)を全画素に対して走査し、足し合わせることにより実現される。ただし、算出される特徴量が画像サイズの影響を受けるので、サイズの異なる画像が登録画像112に入力される場合は、正規化する。このようにして、局所領域識別処理303で識別された線画識別結果が25次元の特徴量へ変換される。
In the present embodiment, an example in which a higher-order local autocorrelation feature is used is shown. When higher-order local autocorrelation feature values are used for a binary image, the feature values are calculated for each of the 25 types of 3 × 3 local patterns shown in FIG. That is, a 25-dimensional feature amount is calculated. The calculation of each feature amount is the product of the pixel values corresponding to the local pattern (the product of the pixels corresponding to “1” of the pattern in FIG. 7. In the case of a binary image, the pixel corresponding to “1” of the local pattern This is realized by scanning all pixels and adding them together. However, since the calculated feature amount is affected by the image size, normalization is performed when images of different sizes are input to the registered
25次元の特徴量がタイプ属性識別処理部306へ入力され、タイプ属性識別処理部306は、登録画像112の文書タイプ属性307を識別する。本実施例のタイプ属性識別処理部306は、一例として「帳票」、「図面」、「その他」の文書タイプを識別する。
A 25-dimensional feature amount is input to the type attribute
タイプ属性識別処理部306が文書タイプ属性を識別するには、入力された25次元の特徴量から、「帳票」、「図面」における特徴量に着目して識別すれば良い。図8は、帳票、図面、論文の各文書画像を入力した場合の特徴量を表したグラフである。図8の各グラフは、各々の文書タイプの特徴的な傾向を示す。すなわち、
・帳票は、No3、No6の次元の特徴量が多く、No10〜No25までの次元の特徴量も少ないながらもある。
・図面は、帳票の特徴量に比べて全体的に特徴量が多い(数値が高い)。
・論文は、帳票、図面の特徴量に比べて全体的に特徴量が少ない(数値が低い)。
In order for the type attribute
-The form has many feature quantities in the dimensions of No. 3 and No. 6 and has few feature quantities in the dimensions from No. 10 to No. 25.
-Drawings generally have more feature values (higher numerical values) than feature values of forms.
・ The paper has less overall feature values (lower numerical values) than the feature values of forms and drawings.
従って、これらの特徴を使用することにより、「帳票」、「図面」を識別することができる。識別は、特徴量の値を比較することにより、あるいは所定のしきい値を超えているか否かのしきい値処理などにより行う。 Therefore, by using these features, “form” and “drawing” can be identified. The identification is performed by comparing feature value values or by threshold processing for determining whether or not a predetermined threshold value is exceeded.
図9は、タイプ属性識別処理部306のフローチャートである。ステップS011において、特徴量No2〜No25の合計値を算出し、所定のしきい値以下か否かを比較する。所定値以下である場合は、「その他」属性を選択する。
FIG. 9 is a flowchart of the type attribute
ステップS012において、特徴量No2〜No25の合計値が所定値より大きい場合は、特徴量No3+No6とNo4+No5の比率が所定値以下か否か比較し、所定値以下の場合は、「図面」属性を選択し、所定値より大きな場合は「帳票」属性を選択する。 In step S012, if the total value of the feature amounts No2 to No25 is larger than the predetermined value, the ratio of the feature amounts No3 + No6 and No4 + No5 is compared to be less than or equal to the predetermined value. If it is larger than the predetermined value, the “form” attribute is selected.
また、他の方法として、SVM等の学習機械を使用して、25次元の特徴量を入力し、予め学習させたモデルを使用することによって文書タイプを識別しても良い。 As another method, a document type may be identified by using a learning machine such as SVM, inputting a 25-dimensional feature value, and using a model learned in advance.
以上の処理により、実施例1の文書タイプ識別処理が完了し、登録画像112の文書タイプ属性が識別される。
Through the above process, the document type identification process of the first embodiment is completed, and the document type attribute of the registered
図10は、文書タイプ識別処理による文書分類処理を使用して文書画像を検索するときの動作フローチャートである。 FIG. 10 is an operation flowchart when a document image is searched using the document classification process based on the document type identification process.
ステップS101において、ユーザは、クライアント装置100において、アプリケーションプログラム102を使用して、文書分類をサーバ装置110へ指示する。このときの指示手段は、例えば図11に示すようなサムネイル一覧の表示画面をクライアント装置100の表示デバイス101上へ表示する。
In step S <b> 101, the user uses the
図11において、401は文書分類による表示画面を指示する分類ラジオボタン、402はサムネイル表示を指示するサムネイルラジオボタン、403は画像を表示するフレーム、404は画像のサムネイルである。複数の画像サムネイル404がフレーム403上に表示され、一般的な画像DBで使用されるサムネイルが一覧で表示されている。通常、画像DB114には多数の画像が登録されているが、一度に表示できない画像サムネイルは、フレームに上下のスライダを設けてスクロールして画像を閲覧したり、ページ送り機能を設けて表示画像群を変更することにより閲覧する。
In FIG. 11, 401 is a classification radio button for instructing a display screen by document classification, 402 is a thumbnail radio button for instructing thumbnail display, 403 is a frame for displaying an image, and 404 is a thumbnail of the image. A plurality of
ユーザは、入力デバイス103のマウス等のポインティングデバイスを使用して分類ラジオボタン401をクリックすることによって、サーバ側に文書分類指示である画面制御データ120が外部通信路104を介して転送される。
When the user clicks the
ステップS102において、サーバ装置110は、文書分類指示である画面制御データ120を受信すると、表示画面制御処理部118は、画面情報DB117の文書タイプ識別データ(以下分類カテゴリ)毎の文書画像数の集計等を行い、表示画面のレイアウトや表示する文書画像データを決定する。
In step S102, when the
次いで、画像DB114より、表示する文書画像データまたは文書画像データのサムネイルを入力し、分類結果の表示画面119を生成し、外部I/F111より外部通信路104を経由してクライアント装置100へ送信する。
Next, document image data to be displayed or a thumbnail of the document image data is input from the
図12は、分類結果の表示画面の一例を示す。図12の「帳票」、「図面」などの文字はカテゴリを表す。411は分類カテゴリを表し、3つのカテゴリに分類した例を示す。また、411の楕円の大きさは各カテゴリ内に含まれる文書数を模式的に表し(文書数を数字で直接表すようにしても良い)、カテゴリ内のサムネイルは、各カテゴリに含まれる文書画像によるものである。ここで表示される画像サムネイルは、画像DB114に登録されている画像数が少ない場合には全ての画像を表示し、そうでない場合には各カテゴリ内のいくつかの代表画像を表示する。このように表示画像数を絞ることによってクライアント装置100での表示時間や外部転送路を介した転送時間、サーバ装置110での処理時間が共に短縮される。処理速度が十分得られる場合には、全ての画像を重ね合わせたり、スライダを設ける等して表示しても良い。
FIG. 12 shows an example of a display screen for the classification result. Characters such as “form” and “drawing” in FIG. 12 represent categories.
上記したような表示画面の作成方法やサーバクライアント間の通信方法には種々の手法があるが、一般的によく使用される手法としてサーバ装置110をWebサーバとしてWorldWideWebベースの技術を使用することにより実現可能となる。そして、表示画面119はHTML(HyperTextMarkupLangage)によって記述され、アプリケーション102は一般的なWebブラウザを使用すれば良い。
There are various methods for creating the display screen and the communication method between the server and client as described above. As a commonly used method, by using the World Wide Web-based technology using the
ステップS103において、クライアント装置100では、表示デバイス101上に表示画面119を表示する。
In step S <b> 103, the
ステップS104において、ユーザは、検索している文書画像に近いカテゴリを、入力デバイス103を使用して選択し、選択したカテゴリデータをサーバ装置110へ送信する。例えば、ここでは図12の「帳票」のカテゴリを選択したとする。選択方法としては、カテゴリ内をマウス等のポインティングデバイスでクリックすることによりカテゴリを選択する。また、カテゴリ毎に選択/非選択を可能とし、複数のカテゴリを選択可能なように構成することも可能である。
In step S <b> 104, the user selects a category close to the document image being searched using the
ステップS105において、サーバ装置110は、カテゴリ内の選択指示を表示画面制御処理部118で受信し、図11に示すように、選択されたカテゴリ(帳票カテゴリ)内のサムネイル一覧の表示画面を作成し、クライアント装置100へ送信する。
In step S105, the
ステップS106において、クライアント装置100では、表示デバイス101上に、図11に示す表示画面120を表示する。
In step S <b> 106, the
このように文書タイプを識別し、文書タイプを分類表示することにより、ユーザは、文書画像登録数の多い画像DBにおいても画像の概観等の特徴を確認しながら検索対象画像を絞り込むことができる。 Thus, by identifying the document type and classifying and displaying the document type, the user can narrow down the search target images while confirming the features such as the overview of the image even in the image DB having a large number of document image registrations.
以上説明したように本実施例によれば、ビットマップ画像の文書タイプを識別する画像処理装置、方法において、局所領域毎に線画か否かを識別し、局所領域の識別結果から特徴量を算出し、算出された特徴量に基づいて文書タイプを識別し文書分類を行うので、複雑なレイアウト形状を持つ文書画像においても、精度良く文書タイプの識別が可能であり、レイアウト解析の領域識別のように画像を複数回走査する必要がなく、一回の走査により実現できるので、処理コストが低減され、かつ処理時間が予測しやすく使い勝手の良い処理が実現できる。 As described above, according to the present embodiment, in the image processing apparatus and method for identifying the document type of a bitmap image, whether or not the image is a line drawing for each local area is identified, and the feature amount is calculated from the identification result of the local area Since the document type is identified and the document is classified based on the calculated feature amount, the document type can be accurately identified even in a document image having a complicated layout shape. In addition, since it is not necessary to scan the image a plurality of times and it can be realized by a single scan, the processing cost can be reduced, and the processing time can be easily predicted and easy-to-use processing can be realized.
実施例2:
実施例2では、局所領域識別処理部303において線画を識別すると共に、文字画像を識別し、文書タイプ属性の精度を向上させる実施例である。実施例2のシステム構成は実施例1と同様である。
Example 2:
In the second embodiment, the local area
文字画像のDCT係数は、線画のそれと比較して、複数の線成分が含まれている。図14は、実施例2の局所領域識別処理部303のフローチャートを示す。実施例1では、線成分と非線成分の差が所定値以上である場合に、線画と識別したが、実施例2では、予めAC成分の最大値を算出し、最大値が所定値以下である場合には(ステップS031でyes)、「その他」とし、最大値が所定値以下ではなく(ステップS031でno)、線成分と非線成分の差が所定値以上の場合は(ステップS032でyes)、「線画」とし、すべての線成分と非線成分の差が所定値以下の場合には(ステップS033、S034でno)、「文字」とする。なお、実施例1の場合と同様にSVM等の学習機械を使用しても良い。
The DCT coefficient of the character image includes a plurality of line components as compared with that of the line drawing. FIG. 14 is a flowchart of the local area
実施例2の局所領域識別処理部303において、「線画」、「文字」を識別するため、識別結果画像は、線画識別結果画像と文字識別結果画像の2種類となる。図6(c)は、実施例2における文字識別結果画像を示す。線画識別結果画像は、実施例1の場合と同様の結果になる。
In the local area
実施例2では、各々の識別結果画像304に対して、特徴量算出処理部305は、実施例1の場合と同様に特徴量を算出する。例えば、高次局所自己相関特徴量を算出する場合には、線画識別結果画像から25次元の特徴量が算出され、文字識別結果画像から25次元の特徴量が算出され、これら50次元の特徴量がタイプ属性識別処理部306へ入力される。
In the second embodiment, the feature amount
実施例2では、一例として、入力された登録画像112を「帳票」、「図面」、「書籍」、「その他」の4種類の属性を識別する例を示す。図15は、実施例2のタイプ属性識別処理部306の構成を示す。実施例2では、タイプ属性識別処理をSVM等の学習機械を用いた識別器により識別する例を示す。
In the second embodiment, as an example, an example in which four types of attributes of “form”, “drawing”, “book”, and “other” are identified in the
図15において、501は特徴量算出処理部305より出力される50次元の特徴量、502は入力された特徴量501に基づいて文書属性タイプが帳票か否かを識別する帳票識別器、503は予め帳票画像の学習データによる特徴量を基に学習され、作成された帳票モデル、504は帳票か否かの識別結果、505は入力された特徴量501に基づいて文書属性タイプが図面か否かを識別する図面識別器、506は予め図面画像の学習データによる特徴量を基に学習され、作成された図面モデル、507は図面か否かの識別結果、508は入力された特徴量501に基づいて文書属性タイプが書籍か否かを識別する書籍識別器、509は予め書籍画像の学習データによる特徴量を基に学習され、作成された書籍モデル、510は書籍か否かの識別結果である。
In FIG. 15,
SVMは、多次元の特徴量を空間射影して識別平面を自動的に作成し、カーネルと呼ばれる識別関数を使用して識別を行う識別器である。実際に識別を行うためには、予め学習データを使用して学習させ、学習結果のモデリングを行う必要がある。学習結果のモデリング結果はモデルと呼ばれるファイルに格納されることになる。学習の際には、実際に識別に使用する「特徴量」と「識別結果の正解」の組を用意して学習させる。一度学習させることにより、後はモデルファイルを使用して識別するのみで高速な識別が可能となる。本実施例では、帳票、図面、書籍の学習結果を各々のモデルファイル503、506、509に格納している。 The SVM is a discriminator that automatically creates a discrimination plane by spatially projecting multi-dimensional feature values and discriminates using a discrimination function called a kernel. In order to actually identify, it is necessary to perform learning using learning data in advance and to model learning results. The learning result modeling result is stored in a file called a model. In learning, a set of “feature amount” and “correct answer of identification result” actually used for identification is prepared and learned. Once learning is performed, high-speed identification is possible only by using a model file. In this embodiment, the learning results of forms, drawings, and books are stored in the respective model files 503, 506, and 509.
以下、実施例2のタイプ属性識別処理部306の動作を説明する。特徴量算出処理部305から出力される50次元の特徴量を帳票識別器502、図面識別器505、書籍識別器508へ各々入力し、各モデル503、506、509を使用して各々識別し、識別結果を各々出力する。すべての識別結果が否(オフ)の場合には、「その他」属性が選択されたことになる。文書タイプ属性は、通常1つの登録画像について1つの属性が付与されるが、例えばユーザが画像を識別し、分類する場合でも、どのような属性を付与すべきか迷うことがある。このようなユーザの主観が分かれるような場合に、分類表示を使用して画像を検索すると、ユーザの主観と識別結果が異なり、ユーザが望むような検索結果が得られない。
Hereinafter, the operation of the type attribute
そこで、予め、ユーザの主観が分かれるような画像の場合は、複数の属性を付与しておき、ユーザがどちらのカテゴリを選択しても検索対象文書にヒットするように構成することが望ましい。 Therefore, in the case of an image in which the user's subjectivity is divided in advance, it is desirable to provide a plurality of attributes so that the search target document is hit regardless of which category the user selects.
これを実現するには、学習の際にタイプ属性を重複させるべき学習データを用意して学習させることが必要となる。図16は、重複データの学習を説明する図である。図16の矩形601は画像を表し、602、603は同一属性のカテゴリを表す。すなわち、図16のモデルは、特徴量を使用して、2次元上に画像をマッピングした場合の各画像がマップ上にとり得る位置を表している。図16の黒い画像604(以下、重複画像)は、帳票、図面の両方のカテゴリ602、603に含まれている。これらを学習する際に、帳票モデル503の学習時に帳票を正解として学習させ、図面モデル506の学習時に図面を正解として学習させる。このように、帳票データを重複して学習させることにより、帳票とも図面とも判然としない画像が帳票、図面の双方に識別されることになる。
In order to realize this, it is necessary to prepare and learn learning data that should overlap type attributes during learning. FIG. 16 is a diagram illustrating learning of duplicate data. A
なお、通常、書籍等の文書画像は複数ページで入力される場合が多いが、本実施例のようにページ単位に処理を行い、ページ単位に識別し、最終的に識別されたタイプ属性が多いものを複数ページの文書画像の代表文書タイプ属性とする。また、各ページと複数ページの属性を異ならせて、「ページ単位の表示画面」を生成する場合と「文書単位の表示画面」を生成する場合とに、使い分けしても良い。 Normally, a document image such as a book is often input in a plurality of pages. However, as in the present embodiment, processing is performed in units of pages, identified in units of pages, and finally has many type attributes identified. A thing is used as a representative document type attribute of a multi-page document image. In addition, the attributes of each page and a plurality of pages may be different from each other to generate a “page unit display screen” and to generate a “document unit display screen”.
以上、説明したように本実施例によれば、局所領域毎に線画/文字/その他を識別するように構成し、特徴量の次元を増やしているため、識別の精度が向上する。また、タイプ属性を識別する際に、複数の識別器を並列に使用して識別結果に重複を許すことによって識別の精度が向上することに加えて、ユーザの主観が分かれるような画像を検索する場合にも、文書タイプ識別を用いた分類表示によって検索が可能となる。 As described above, according to the present embodiment, the line drawing / character / others are identified for each local region, and the feature quantity dimension is increased, so that the identification accuracy is improved. Also, when identifying type attributes, in addition to improving the accuracy of identification by allowing a plurality of classifiers to be used in parallel and allowing the identification results to be duplicated, search for an image in which the subjectivity of the user is divided. Even in this case, the search can be performed by the classification display using the document type identification.
実施例3:
実施例3は、局所領域識別処理部303において線画、文字画像を識別すると共に、写真画像を識別し、文書タイプ属性の精度を向上させる実施例である。実施例3のシステム構成も実施例1と同様である。
Example 3:
The third embodiment is an embodiment in which the local region
写真画像のDCT係数は、線画や文字画像のそれと比較して、基本的にAC成分の電力が弱く、DCT係数の電力が比較的広い範囲に分布している。図17は、実施例3の局所領域識別処理部のフローチャートを示す。実施例3では、AC成分の最大値と第1のしきい値を比較し、AC成分の最大値が第1のしきい値以下のとき(ステップS041でyes)、「その他」と識別し、AC成分の最大値が第1のしきい値以下ではなく(ステップS041でno)、AC成分の最大値が第2のしきい値以下のとき(ステップS042でyes)、「写真」と識別する。 The DCT coefficient of a photographic image basically has a lower AC component power than that of a line drawing or character image, and the DCT coefficient power is distributed over a relatively wide range. FIG. 17 is a flowchart of the local region identification processing unit according to the third embodiment. In the third embodiment, the maximum value of the AC component is compared with the first threshold value. When the maximum value of the AC component is equal to or less than the first threshold value (yes in step S041), “other” is identified. When the maximum value of the AC component is not less than or equal to the first threshold value (no in step S041) and the maximum value of the AC component is less than or equal to the second threshold value (yes in step S042), it is identified as “photograph”. .
実施例3の局所領域識別処理部303において、「線画」、「文字」、「写真」を識別するため、識別結果画像は、線画識別結果画像、文字識別結果画像、写真識別結果画像の3種類となり、各々の識別結果画像304に対して、特徴量算出処理部305は実施例2と同様に特徴量を算出する。例えば、高次局所自己相関特徴量を算出する場合を例にとると、75次元の特徴量が算出され、タイプ属性識別処理部306へ入力される。タイプ属性識別処理部306では、75次元の特徴量を使用して、実施例2と同様に複数の識別器を使用して複数の文書タイプを識別する。
In the local area
実施例3では、局所領域識別処理部303において写真画像を識別しているので、カタログやチラシ等の文字と写真が含まれている文書タイプや写真のみの画像等を識別できる。
In the third embodiment, since the photographic image is identified by the local area
以上、説明したように本実施例によれば、局所領域毎に線画/文字/写真/その他を識別するように構成し、特徴量の次元を増やしているため、識別の精度が向上すると共に写真を含む文書タイプのカテゴリの識別が可能となる。 As described above, according to the present embodiment, line drawings / characters / photos / others are identified for each local region, and the feature dimension is increased. It is possible to identify the category of the document type including
100 クライアント装置
101 表示デバイス
102 アプリケーションプログラム
103 入力デバイス
104 外部通信路
110 サーバ装置
111 外部インターフェース
112 登録画像データ
113 サムネイル生成処理部
114 画像DB
115 文書タイプ識別処理部
117 画像情報DB
118 表示画面制御処理部
119 表示画面データ
120 画面制御データ
DESCRIPTION OF
115 Document Type
118 Display Screen
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007039787A JP4859054B2 (en) | 2007-02-20 | 2007-02-20 | Image processing apparatus, image processing method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007039787A JP4859054B2 (en) | 2007-02-20 | 2007-02-20 | Image processing apparatus, image processing method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008204184A true JP2008204184A (en) | 2008-09-04 |
JP4859054B2 JP4859054B2 (en) | 2012-01-18 |
Family
ID=39781624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007039787A Expired - Fee Related JP4859054B2 (en) | 2007-02-20 | 2007-02-20 | Image processing apparatus, image processing method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4859054B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012105070A (en) * | 2010-11-10 | 2012-05-31 | Canon Inc | Image correction device and image correction method |
JP2013061769A (en) * | 2011-09-13 | 2013-04-04 | Brother Ind Ltd | Image processing program, image processing device, and image processing method |
WO2016076515A1 (en) * | 2014-11-13 | 2016-05-19 | 삼성전자 주식회사 | Method and device for generating metadata including frequency characteristic information of image |
JP2017010479A (en) * | 2015-06-26 | 2017-01-12 | 富士ゼロックス株式会社 | Information processor and information processing program |
WO2017094202A1 (en) * | 2015-12-01 | 2017-06-08 | アイマトリックス株式会社 | Document structure analysis device which applies image processing |
JP2017175524A (en) * | 2016-03-25 | 2017-09-28 | 株式会社日立ドキュメントソリューションズ | Document management system and image data management method |
US11900423B2 (en) | 2018-05-28 | 2024-02-13 | Ricoh Company, Ltd. | Image retrieval apparatus image retrieval method, product catalog generation system, and recording medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0766981A (en) * | 1993-08-27 | 1995-03-10 | Canon Inc | Data compression method |
JPH1049674A (en) * | 1996-07-30 | 1998-02-20 | Toshiba Corp | Color image processor |
JP2006303899A (en) * | 2005-04-20 | 2006-11-02 | Fuji Photo Film Co Ltd | Image processor, image processing system, and image processing program |
JP2007043662A (en) * | 2005-07-01 | 2007-02-15 | Fuji Xerox Co Ltd | Image forming apparatus and image processor |
-
2007
- 2007-02-20 JP JP2007039787A patent/JP4859054B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0766981A (en) * | 1993-08-27 | 1995-03-10 | Canon Inc | Data compression method |
JPH1049674A (en) * | 1996-07-30 | 1998-02-20 | Toshiba Corp | Color image processor |
JP2006303899A (en) * | 2005-04-20 | 2006-11-02 | Fuji Photo Film Co Ltd | Image processor, image processing system, and image processing program |
JP2007043662A (en) * | 2005-07-01 | 2007-02-15 | Fuji Xerox Co Ltd | Image forming apparatus and image processor |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012105070A (en) * | 2010-11-10 | 2012-05-31 | Canon Inc | Image correction device and image correction method |
JP2013061769A (en) * | 2011-09-13 | 2013-04-04 | Brother Ind Ltd | Image processing program, image processing device, and image processing method |
WO2016076515A1 (en) * | 2014-11-13 | 2016-05-19 | 삼성전자 주식회사 | Method and device for generating metadata including frequency characteristic information of image |
US10417766B2 (en) | 2014-11-13 | 2019-09-17 | Samsung Electronics Co., Ltd. | Method and device for generating metadata including frequency characteristic information of image |
JP2017010479A (en) * | 2015-06-26 | 2017-01-12 | 富士ゼロックス株式会社 | Information processor and information processing program |
WO2017094202A1 (en) * | 2015-12-01 | 2017-06-08 | アイマトリックス株式会社 | Document structure analysis device which applies image processing |
CN108369559A (en) * | 2015-12-01 | 2018-08-03 | 艾梅崔克斯株式会社 | Apply the file structure analytical equipment of image procossing |
CN108369559B (en) * | 2015-12-01 | 2019-10-22 | 艾梅崔克斯株式会社 | Apply the file structure analytical equipment of image procossing |
JP2017175524A (en) * | 2016-03-25 | 2017-09-28 | 株式会社日立ドキュメントソリューションズ | Document management system and image data management method |
US11900423B2 (en) | 2018-05-28 | 2024-02-13 | Ricoh Company, Ltd. | Image retrieval apparatus image retrieval method, product catalog generation system, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP4859054B2 (en) | 2012-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4859025B2 (en) | Similar image search device, similar image search processing method, program, and information recording medium | |
US9754164B2 (en) | Systems and methods for classifying objects in digital images captured using mobile devices | |
CN103975342B (en) | The system and method for capturing and handling for mobile image | |
JP7013182B2 (en) | Information processing equipment, information processing methods and programs | |
US8112706B2 (en) | Information processing apparatus and method | |
JP4181892B2 (en) | Image processing method | |
US10432820B2 (en) | Image processing apparatus, image processing system, control method for image processing apparatus, and non-transitory computer readable medium | |
KR102149050B1 (en) | System and method for analyzing document using artificial intelligence based on ocr | |
US8224095B2 (en) | Image processing apparatus, image forming apparatus, image processing system, and image processing method | |
JP4533273B2 (en) | Image processing apparatus, image processing method, and program | |
JP4859054B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
US8693790B2 (en) | Form template definition method and form template definition apparatus | |
US20110249299A1 (en) | Preserving user applied markings made to a hardcopy original document | |
US9710524B2 (en) | Image processing apparatus, image processing method, and computer-readable storage medium | |
US20060010115A1 (en) | Image processing system and image processing method | |
JP2007286864A (en) | Image processor, image processing method, program, and recording medium | |
JPWO2007004519A1 (en) | Search system and search method | |
JP2010262648A (en) | Automated method for alignment of document object | |
JP2006243943A (en) | Image processing apparatus and its method | |
US20080218812A1 (en) | Metadata image processing | |
KR102211516B1 (en) | System and method for analyzing document using virtual cell based on ocr | |
JP2007004621A (en) | Document management supporting device, and document management supporting method and program | |
JP2017120503A (en) | Information processing device, control method and program of information processing device | |
JP4261988B2 (en) | Image processing apparatus and method | |
CN113936764A (en) | Method and system for desensitizing sensitive information in medical report sheet photo |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091027 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110525 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111026 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111027 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4859054 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141111 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |